VIRSUN
15.1K subscribers
451 photos
260 videos
2 files
270 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
加入频道
This media is not supported in your browser
VIEW IN TELEGRAM
🎯 راهنمای حرفه‌ای مهندسی پرامپت توسط Anthropic منتشر شد

یکی از کامل‌ترین منابع برای مهندسی پرامپت اکنون در دسترس است — توسط شرکت Anthropic برای مدل Claude.

🧠 این راهنما به موضوعاتی مانند: ▪️ طراحی پرامپت‌های متا (Meta Prompting)
▪️ استفاده از قالب‌ها (Templates)
▪️ تعیین نقش‌های سیستمی (System Roles)
▪️ برچسب‌گذاری با XML
و تکنیک‌های پیشرفته دیگر می‌پردازد.

📘 مطالعه این راهنما برای پژوهشگران، مهندسان LLM و توسعه‌دهندگان اپلیکیشن‌های مبتنی بر Claude توصیه می‌شود.

🔗 لینک راهنما

#مهندسی_پرامپت #Claude #هوش_مصنوعی #LLM #Anthropic
@rss_ai_ir
🔥20👍1714👏14🎉14🥰13😁13
⚡️شتاب دهند Agent Lightning؛ شتاب‌دهنده‌ی جدید مایکروسافت برای آموزش ایجنت‌های LLM

دیگر نیازی به بازنویسی ایجنت نیست! با فریم‌ورک **Agent Lightning**، می‌توانید ایجنت‌های مبتنی بر زبان را بدون تغییر در کد، به کمک **یادگیری تقویتی (RL)
آموزش و بهینه‌سازی کنید.

🔧 ویژگی‌های کلیدی:
▪️ بدون نیاز به تغییر در کد ایجنت
▪️ پشتیبانی از فریم‌ورک‌هایی مانند LangChain، AutoGen، OpenAI Agents SDK، Semantic Kernel و...
▪️ اتصال ایجنت با استفاده از sidecar و جمع‌آوری داده‌های رفتاری
▪️ ارزیابی عملکرد ایجنت در مراحل مختلف (state، action، reward)
▪️ امکان بهینه‌سازی رفتار ایجنت حتی بر اساس سیگنال‌های میانی، نه فقط نتیجه نهایی
▪️ قابلیت اتصال به پایپلاین‌های موجود در پروژه‌های صنعتی یا پژوهشی

🎯 مناسب برای پروژه‌های تولید کد، پرس‌وجوی SQL، اتوماسیون وظایف پیچیده و حتی Multi-Agent Systems

📄 مقاله: (https://arxiv.org/abs/2508.03680)
🔗 گیت‌هاب:(https://github.com/microsoft/agent-lightning)
🌐 وب‌سایت: (https://www.microsoft.com/en-us/research/project/agent-lightning)

#هوش_مصنوعی #LLM #Agent #یادگیری_تقویتی #Microsoft #LangChain #AutoGen #MLOps
@rss_ai_ir 🚀
16🔥16👏16👍15🥰13😁13🎉13🙏1
🧠 مدل GPT-5 حتی در ورودی‌های فوق‌طولانی هم دقت بالایی را حفظ می‌کند!
@rss_ai_ir

📊 نمودار بالا عملکرد مدل‌های مختلف را در مواجهه با ورودی‌های بسیار بلند (تا ۲۵۶ هزار توکن) مقایسه می‌کند. این تست با استفاده از معیار MRCR و وظیفه‌ی “2 needle” اجرا شده که بررسی می‌کند آیا مدل می‌تواند اطلاعات کلیدی را از دل متن بسیار بلند پیدا کند یا نه.

🔝 نتیجه کاملاً روشن است:
مدل GPT-5 با اختلاف قابل توجه، در تمام طول ورودی‌ها بالاترین نرخ تطابق (mean match ratio) را دارد و دقت آن حتی در ورودی ۲۵۶k همچنان نزدیک به ۹۰٪ باقی می‌ماند.

📉 در مقابل:

نسخه‌های Nano و Mini از GPT-4.1 با افزایش طول ورودی به‌شدت افت عملکرد دارند (تا زیر ۴۰٪)

مدل‌های OpenAI O3 و O4-mini هم با وجود شروع قوی، از ۶۴k به بعد دچار افت دقت می‌شوند


🎯 این یعنی GPT-5 نه تنها برای مکالمات یا تحلیل‌های کوتاه، بلکه برای کاربردهای پیچیده با متن‌های بسیار طولانی (مثل اسناد حقوقی، مقالات علمی، یا پایگاه‌ داده‌های متنی) انتخابی بی‌رقیب است.

#GPT5 #هوش_مصنوعی #OpenAI #طول_ورودی_بلند #LLM #بازیابی_اطلاعات #MemoryDepth #متن_طولانی #AItools #مدل_زبانی_پیشرفته

@rss_ai_ir
👍2🔥1👏1
🚀 پیشرفت گوگل: کاهش ۱۰هزار برابری نیاز به داده برای فاین‌تیون LLM
@rss_ai_ir

🔍 گوگل روشی مقیاس‌پذیر در Active Learning توسعه داده که حجم داده برچسب‌خورده موردنیاز برای آموزش مدل‌های زبانی بزرگ (LLM) را در وظایف پیچیده – مثل مـدراتـیـون محتوای تبلیغاتی – تا ده‌ها هزار برابر کاهش می‌دهد.

---

🛠 مراحل کار

1. مدل اولیه (LLM-0) روی کل داده پیش‌بینی و برچسب‌گذاری خودکار انجام می‌دهد.
2. داده‌ها خوشه‌بندی می‌شوند تا سخت‌ترین و مبهم‌ترین نمونه‌ها شناسایی شود.
3. تنها نمونه‌های متنوع و با بیشترین ارزش یادگیری انتخاب می‌شوند.
4. این نمونه‌ها توسط کارشناسان انسانی برچسب‌گذاری می‌شوند.
5. فرآیند آموزش → انتخاب نمونه‌های دشوار → برچسب‌گذاری → آموزش مجدد چند بار تکرار می‌شود.

---

📊 نتایج کلیدی

* کاهش از ۱۰۰هزار نمونه برچسب‌خورده به کمتر از ۵۰۰ نمونه با حفظ یا بهبود کیفیت.
* بهبود معیار Cohen’s Kappa بین ۵۵ تا ۶۵ درصد.
* در مدل‌های بزرگ عملیاتی: صرفه‌جویی ۳ تا ۴ مرتبه‌ای در داده با کیفیت برابر یا بهتر.

---

📌معیار Cohen’s Kappa چیست؟
معیاری برای سنجش میزان توافق بین دو ارزیاب (مثلاً کارشناس و مدل) با حذف اثر توافق تصادفی:

* ۰.۰ → بدون توافق
* ۰.۴۱–۰.۶۰ → توافق متوسط
* ۰.۶۱–۰.۸۰ → توافق قابل توجه
* ۰.۸۱–۱.۰۰ → توافق تقریباً کامل

مزیت نسبت به Accuracy: مناسب‌تر برای داده‌های با توزیع نامتوازن کلاس‌ها.

---

💡 مزیت‌های روش گوگل

* برچسب‌گذاری فقط روی نمونه‌های مهم
* مقیاس‌پذیر برای دیتاست‌های حجیم (صدها میلیارد نمونه)
* کاهش شدید هزینه و زمان برچسب‌گذاری
* انطباق سریع برای حوزه‌هایی با تغییرات مداوم قوانین (مانند تبلیغات، امنیت، محتوای کاربری)

---

📥 مطالعه کامل در بلاگ گوگل:
[https://research.google/blog/achieving-10000x-training-data-reduction-with-high-fidelity-labels/]

#هوش_مصنوعی #ActiveLearning #گوگل #LLM #یادگیری_ماشین #DataEfficiency
@rss_ai_ir
🔥2321🥰21😁20🎉20👏17👍12🙏1
⚡️ مدل‌های زبانی GPT-OSS با فرمت GGUF توسط تیم Unsloth بهینه‌سازی و منتشر شدند
@rss_ai_ir

تیم توسعه‌دهنده Unsloth دو نسخه از مدل‌های GPT-OSS با ۲۰ و ۱۲۰ میلیارد پارامتر را به فرمت GGUF تبدیل کرده و با رفع برخی ایرادات، کیفیت استنتاج (Inference) آن‌ها را به‌طور قابل توجهی افزایش داده‌اند.


---

📌 پیکربندی پیشنهادی برای اجرا:

🔹 مدل با ۲۰ میلیارد پارامتر در حالت دقت کامل، تنها به ۱۴ گیگابایت حافظه رم نیاز دارد و با سرعتی بیش از ۱۰ توکن بر ثانیه اجرا می‌شود.

🔹 مدل ۱۲۰ میلیاردی نیز با حدود ۶۴ گیگ رم، خروجی بالای ۴۰ توکن بر ثانیه ارائه می‌دهد.

🔸 حتی در سیستم‌هایی با ۶ گیگ رم و بدون GPU هم امکان اجرا وجود دارد، اما سرعت استنتاج پایین‌تر خواهد بود.


---

📈 در صورت استفاده از کارت گرافیک، عملکرد مدل‌ها به‌مراتب بهتر خواهد بود.
برخی تست‌ها با GPU قدرتمند H100 نشان داده‌اند که سرعت خروجی به بیش از ۱۴۰ توکن بر ثانیه می‌رسد که حتی از ChatGPT نیز سریع‌تر است.


---

🧠 روش‌های قابل استفاده برای اجرا:

اجرای مستقیم با ابزار llama.cpp

نرم‌افزارهای رابط مانند LM Studio

محیط‌های تعاملی مانند Open WebUI


📌 مدل ۲۰B در عین سبک بودن، عملکردی نزدیک به مدل‌هایی مانند o3-mini دارد و برای سیستم‌های ضعیف‌تر بسیار مناسب است.


---

🔧 نسخه‌هایی با دقت ۴ بیت و ۱۶ بیت نیز آماده شده‌اند.
نسخه ۴ بیتی حتی قابلیت فاین‌تیون روی کارت‌های گرافیک با ۲۴ گیگابایت VRAM را دارد.

📄 مستندات کامل برای نصب و آموزش، توسط تیم Unsloth منتشر شده و گام‌به‌گام مراحل راه‌اندازی را توضیح داده است.

منابع:
لینک 1

لینک 2

#مدل_زبانی #هوش_مصنوعی #GPT_OSS #Unsloth #GGUF #LLM

@rss_ai_ir
👍16🎉13👏11🥰9😁97🔥6
📊🤖 بهبود دقت GPT-5 با پرامپت کاستوم جدید

تست‌ها روی مدل gpt-5-nano با تلاش medium و بنچمارک MMLU-PRO نشان دادند که استفاده از نسخه سوم پرامپت کاستوم باعث افزایش دقت از 68.73٪ به 70.20٪ شده است (+1.47٪).

📌 ویژگی‌های نسخه جدید

♻️استفاده از تکنیک «ساخت روبریک» در حین فکر کردن مدل
♻️ارزیابی داخلی پاسخ‌ها (۰ تا ۱۰۰) و بازنویسی در صورت کیفیت پایین
♻️حذف ترفندهای قدیمی بی‌اثر و بهبود فرمت خروجی
♻️بدون تحمیل جدول یا پیشنهاد اضافی مگر درخواستی باشد


📈 در نمودار دوم می‌بینید که تقریباً در تمام حوزه‌ها (مهندسی، علوم کامپیوتر، شیمی، بیزینس، زیست، فیزیک و …) عملکرد کمی بهتر بوده است.

📥 پرامپت و توضیحات کامل:
github.com/DenisSergeevitch/chatgpt-custom-instructions

@rss_ai_ir 🚀 | #هوش_مصنوعی #پرامپت #GPT5 #LLM #پردازش_زبان
🔥1812😁11👍9🥰7🎉6👏5
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 فاین‌تیونینگ کارآمد مدل‌های زبانی با PEFT

✳️در پروژه‌های هوش مصنوعی، مخصوصاً مدل‌های زبانی بزرگ (LLM)، فاین‌تیونینگ کامل تمام وزن‌ها (Full Fine-Tuning) بسیار پرهزینه و نیازمند GPUهای قدرتمند است. تکنیک PEFT (Parameter-Efficient Fine-Tuning) با هدف کاهش این هزینه‌ها معرفی شده و امروز یکی از رایج‌ترین رویکردها برای سفارشی‌سازی مدل‌ها در حوزه تخصصی است.


🔍 ایده اصلی PEFT
به‌جای تغییر دادن همه پارامترهای مدل (که ممکن است میلیاردها وزن باشد)، فقط یک زیرمجموعه کوچک از پارامترها یا لایه‌های اضافه شده (مثل LoRA – Low-Rank Adaptation) آموزش داده می‌شود. وزن‌های اصلی مدل پیش‌آموزش‌دیده (Pretrained Weights) ثابت می‌مانند و تنها ماتریس‌های کم‌رتبه‌ی افزوده شده به‌روزرسانی می‌شوند.


⚙️ مهم‌ترین روش‌های PEFT
LoRA (Low-Rank Adaptation) 🟦
تزریق دو ماتریس کم‌رتبه (A و B) به وزن‌های مدل
به‌روزرسانی فقط این ماتریس‌ها
کاهش چشمگیر تعداد پارامترهای قابل‌آموزش (تا 1000 برابر کمتر از Full Fine-Tuning)


Prefix-Tuning 🟧
اضافه کردن یک توالی از "توکن‌های پیشوند" قابل‌آموزش به ورودی هر لایه ترنسفورمر
مناسب برای وظایف تولید متن (NLG) و دیالوگ


Prompt-Tuning 🟨
آموزش چند embedding به‌عنوان پرامپت ثابت برای هدایت مدل مناسب برای سناریوهایی که ورودی همیشه ساختار مشخصی دارد


Adapters 🟩
اضافه کردن ماژول‌های کوچک بین لایه‌های ترنسفورمر مدل اصلی ثابت می‌ماند و فقط آداپترها آموزش می‌بینند


📊 مزایا برای پروژه‌های صنعتی
💾 نیاز کمتر به حافظه GPU (مثلاً 8GB هم کافی است)
⏱️ سرعت بالاتر آموزش و استقرار
🔄 قابلیت اشتراک و ترکیب ماژول‌های فاین‌تیون (Adapter Fusion)
📦 امکان استفاده روی مدل‌های خیلی بزرگ بدون منابع ابری گران


💡 کاربردهای تخصصی
♻️سفارشی‌سازی GPT یا LLaMA برای تحلیل متون حقوقی، پزشکی یا فنی
♻️آموزش مدل‌های چندزبانه روی داده‌های سازمانی محدود
♻️ایجاد نسخه‌های سبک‌تر و بهینه برای اجرا روی لبه (Edge AI)


📌 جمع‌بندی
روشPEFT با تمرکز روی تغییرات کم‌هزینه و ماژولار، فاین‌تیونینگ را برای همه قابل‌دسترس کرده است. به‌جای روزها آموزش روی چندین GPU، می‌توان با منابع محدود، مدل‌های قدرتمند را دقیقاً مطابق نیاز حوزه تخصصی خود تنظیم کرد.


@rss_ai_ir 🤖

| #هوش_مصنوعی #LLM #PEFT #LoRA #پردازش_زبان_طبیعی
😁9🎉8🔥7👏63🥰3👍1
📊 نتایج مقایسه مدل‌های هوش مصنوعی در معیار AlgoTune نشان می‌دهد که مدل‌های کوچک‌تر مانند o4-mini و DeepSeek R1 با بودجه بسیار کمتر، شتاب بالایی ایجاد می‌کنند.

🔹 نکات کلیدی:

✳️مدل o4-mini با امتیاز 1.71x و R1 با 1.69x در صدر قرار دارند.

✳️حتی با بودجه ۰.۱ دلار، این دو مدل به امتیازی بهتر از Claude Opus در بودجه کامل ۱ دلار می‌رسند.

✳️بیشترین رشد عملکرد مدل‌های کوچک قبل از ۰.۵ دلار اتفاق می‌افتد و پس از آن شیب افزایش کاهش می‌یابد.

✳️رویکرد budget-constrained benchmarking هرچند در کاربرد عملی محدودیت‌هایی دارد، اما برای تحقیقات دانشگاهی و پروژه‌های دانشجویی می‌تواند بسیار ارزشمند باشد.


#هوش_مصنوعی #LLM #بنچمارک #بهینه‌سازی_الگوریتم
@rss_ai_ir 🚀
🔥10😁64👍4🎉2
مدیر سابق گوگل David Petrou که به خاطر کار روی Google Goggles و Google Glass شناخته می‌شود، استارتاپی به نام Continua راه‌اندازی کرده است 💬🤖 — یک عامل هوش مصنوعی که می‌تواند به گروه‌های چت در SMS، iMessage و Discord بپیوندد تا در هماهنگی برنامه‌ها، مدیریت وظایف و کاهش شلوغی گفتگو کمک کند.


---

جزئیات کلیدی

♻️جذب سرمایه ۸ میلیون دلاری در دور Seed به رهبری GV با مشارکت Bessemer Venture Partners و سرمایه‌گذاران فرشته.

♻️قابلیت‌هایی مانند تنظیم یادآور، برگزاری نظرسنجی، ایجاد اسناد و پاسخ‌گویی به سوالات در پیام خصوصی (DM).

♻️آموزش ویژه برای مدیریت مکالمات چندنفره با هوش اجتماعی.

♻️امکان افزودن مستقیم Continua به گروه‌ها و تعیین میزان مشارکت آن توسط کاربر.



---

🎯 هدف این پروژه، تبدیل مدل‌های زبانی بزرگ (LLM) به بخشی طبیعی و بدون مزاحمت از هماهنگی روزمره در گروه‌هاست.

#هوش_مصنوعی 🤖 #استارتاپ 🚀 #چت_بات 💬 #مدیریت_وظایف 📅 #LLM
🎉9😁75🔥3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🩺 وقتی هوش مصنوعی از بسیاری از پزشکان بهتر عمل می‌کند

داریو آمودئی، مدیرعامل Anthropic، می‌گوید:

برخی از برندگان نوبل در زیست‌شناسی امروز از LLMها (مدل‌های زبانی بزرگ) مشاوره‌های بهتری نسبت به اکثر پزشکان دریافت می‌کنند.



🔹 او تأکید می‌کند که البته ۱٪ برتر پزشکان همچنان ارزش مراجعه حضوری دارند،
اما برای بقیه موارد، LLMها سریع‌تر، سازگارتر و دقیق‌تر عمل می‌کنند.

💡 چرا؟
زیرا بخش زیادی از کار پزشکی الگو‌یابی و ترکیب حقایق است، و این دقیقاً همان چیزی است که LLMها در آن می‌درخشند.

🌐 #هوش_مصنوعی #پزشکی_دیجیتال #LLM #AIHealthcare
🧠 @rss_ai_ir
8🎉7🔥6👍3😁1