This media is not supported in your browser
VIEW IN TELEGRAM
🎯 راهنمای حرفهای مهندسی پرامپت توسط Anthropic منتشر شد
یکی از کاملترین منابع برای مهندسی پرامپت اکنون در دسترس است — توسط شرکت Anthropic برای مدل Claude.
🧠 این راهنما به موضوعاتی مانند: ▪️ طراحی پرامپتهای متا (Meta Prompting)
▪️ استفاده از قالبها (Templates)
▪️ تعیین نقشهای سیستمی (System Roles)
▪️ برچسبگذاری با XML
و تکنیکهای پیشرفته دیگر میپردازد.
📘 مطالعه این راهنما برای پژوهشگران، مهندسان LLM و توسعهدهندگان اپلیکیشنهای مبتنی بر Claude توصیه میشود.
🔗 لینک راهنما
#مهندسی_پرامپت #Claude #هوش_مصنوعی #LLM #Anthropic
@rss_ai_ir ✅
یکی از کاملترین منابع برای مهندسی پرامپت اکنون در دسترس است — توسط شرکت Anthropic برای مدل Claude.
🧠 این راهنما به موضوعاتی مانند: ▪️ طراحی پرامپتهای متا (Meta Prompting)
▪️ استفاده از قالبها (Templates)
▪️ تعیین نقشهای سیستمی (System Roles)
▪️ برچسبگذاری با XML
و تکنیکهای پیشرفته دیگر میپردازد.
📘 مطالعه این راهنما برای پژوهشگران، مهندسان LLM و توسعهدهندگان اپلیکیشنهای مبتنی بر Claude توصیه میشود.
🔗 لینک راهنما
#مهندسی_پرامپت #Claude #هوش_مصنوعی #LLM #Anthropic
@rss_ai_ir ✅
🔥20👍17❤14👏14🎉14🥰13😁13
⚡️شتاب دهند Agent Lightning؛ شتابدهندهی جدید مایکروسافت برای آموزش ایجنتهای LLM
دیگر نیازی به بازنویسی ایجنت نیست! با فریمورک **Agent Lightning**، میتوانید ایجنتهای مبتنی بر زبان را بدون تغییر در کد، به کمک **یادگیری تقویتی (RL) آموزش و بهینهسازی کنید.
🔧 ویژگیهای کلیدی:
▪️ بدون نیاز به تغییر در کد ایجنت
▪️ پشتیبانی از فریمورکهایی مانند LangChain، AutoGen، OpenAI Agents SDK، Semantic Kernel و...
▪️ اتصال ایجنت با استفاده از sidecar و جمعآوری دادههای رفتاری
▪️ ارزیابی عملکرد ایجنت در مراحل مختلف (state، action، reward)
▪️ امکان بهینهسازی رفتار ایجنت حتی بر اساس سیگنالهای میانی، نه فقط نتیجه نهایی
▪️ قابلیت اتصال به پایپلاینهای موجود در پروژههای صنعتی یا پژوهشی
🎯 مناسب برای پروژههای تولید کد، پرسوجوی SQL، اتوماسیون وظایف پیچیده و حتی Multi-Agent Systems
📄 مقاله: (https://arxiv.org/abs/2508.03680)
🔗 گیتهاب:(https://github.com/microsoft/agent-lightning)
🌐 وبسایت: (https://www.microsoft.com/en-us/research/project/agent-lightning)
#هوش_مصنوعی #LLM #Agent #یادگیری_تقویتی #Microsoft #LangChain #AutoGen #MLOps
@rss_ai_ir 🚀
دیگر نیازی به بازنویسی ایجنت نیست! با فریمورک **Agent Lightning**، میتوانید ایجنتهای مبتنی بر زبان را بدون تغییر در کد، به کمک **یادگیری تقویتی (RL) آموزش و بهینهسازی کنید.
🔧 ویژگیهای کلیدی:
▪️ بدون نیاز به تغییر در کد ایجنت
▪️ پشتیبانی از فریمورکهایی مانند LangChain، AutoGen، OpenAI Agents SDK، Semantic Kernel و...
▪️ اتصال ایجنت با استفاده از sidecar و جمعآوری دادههای رفتاری
▪️ ارزیابی عملکرد ایجنت در مراحل مختلف (state، action، reward)
▪️ امکان بهینهسازی رفتار ایجنت حتی بر اساس سیگنالهای میانی، نه فقط نتیجه نهایی
▪️ قابلیت اتصال به پایپلاینهای موجود در پروژههای صنعتی یا پژوهشی
🎯 مناسب برای پروژههای تولید کد، پرسوجوی SQL، اتوماسیون وظایف پیچیده و حتی Multi-Agent Systems
📄 مقاله: (https://arxiv.org/abs/2508.03680)
🔗 گیتهاب:(https://github.com/microsoft/agent-lightning)
🌐 وبسایت: (https://www.microsoft.com/en-us/research/project/agent-lightning)
#هوش_مصنوعی #LLM #Agent #یادگیری_تقویتی #Microsoft #LangChain #AutoGen #MLOps
@rss_ai_ir 🚀
❤16🔥16👏16👍15🥰13😁13🎉13🙏1
🧠 مدل GPT-5 حتی در ورودیهای فوقطولانی هم دقت بالایی را حفظ میکند!
@rss_ai_ir
📊 نمودار بالا عملکرد مدلهای مختلف را در مواجهه با ورودیهای بسیار بلند (تا ۲۵۶ هزار توکن) مقایسه میکند. این تست با استفاده از معیار MRCR و وظیفهی “2 needle” اجرا شده که بررسی میکند آیا مدل میتواند اطلاعات کلیدی را از دل متن بسیار بلند پیدا کند یا نه.
🔝 نتیجه کاملاً روشن است:
مدل GPT-5 با اختلاف قابل توجه، در تمام طول ورودیها بالاترین نرخ تطابق (mean match ratio) را دارد و دقت آن حتی در ورودی ۲۵۶k همچنان نزدیک به ۹۰٪ باقی میماند.
📉 در مقابل:
نسخههای Nano و Mini از GPT-4.1 با افزایش طول ورودی بهشدت افت عملکرد دارند (تا زیر ۴۰٪)
مدلهای OpenAI O3 و O4-mini هم با وجود شروع قوی، از ۶۴k به بعد دچار افت دقت میشوند
🎯 این یعنی GPT-5 نه تنها برای مکالمات یا تحلیلهای کوتاه، بلکه برای کاربردهای پیچیده با متنهای بسیار طولانی (مثل اسناد حقوقی، مقالات علمی، یا پایگاه دادههای متنی) انتخابی بیرقیب است.
#GPT5 #هوش_مصنوعی #OpenAI #طول_ورودی_بلند #LLM #بازیابی_اطلاعات #MemoryDepth #متن_طولانی #AItools #مدل_زبانی_پیشرفته
@rss_ai_ir
@rss_ai_ir
📊 نمودار بالا عملکرد مدلهای مختلف را در مواجهه با ورودیهای بسیار بلند (تا ۲۵۶ هزار توکن) مقایسه میکند. این تست با استفاده از معیار MRCR و وظیفهی “2 needle” اجرا شده که بررسی میکند آیا مدل میتواند اطلاعات کلیدی را از دل متن بسیار بلند پیدا کند یا نه.
🔝 نتیجه کاملاً روشن است:
مدل GPT-5 با اختلاف قابل توجه، در تمام طول ورودیها بالاترین نرخ تطابق (mean match ratio) را دارد و دقت آن حتی در ورودی ۲۵۶k همچنان نزدیک به ۹۰٪ باقی میماند.
📉 در مقابل:
نسخههای Nano و Mini از GPT-4.1 با افزایش طول ورودی بهشدت افت عملکرد دارند (تا زیر ۴۰٪)
مدلهای OpenAI O3 و O4-mini هم با وجود شروع قوی، از ۶۴k به بعد دچار افت دقت میشوند
🎯 این یعنی GPT-5 نه تنها برای مکالمات یا تحلیلهای کوتاه، بلکه برای کاربردهای پیچیده با متنهای بسیار طولانی (مثل اسناد حقوقی، مقالات علمی، یا پایگاه دادههای متنی) انتخابی بیرقیب است.
#GPT5 #هوش_مصنوعی #OpenAI #طول_ورودی_بلند #LLM #بازیابی_اطلاعات #MemoryDepth #متن_طولانی #AItools #مدل_زبانی_پیشرفته
@rss_ai_ir
👍2🔥1👏1
🚀 پیشرفت گوگل: کاهش ۱۰هزار برابری نیاز به داده برای فاینتیون LLM
@rss_ai_ir
🔍 گوگل روشی مقیاسپذیر در Active Learning توسعه داده که حجم داده برچسبخورده موردنیاز برای آموزش مدلهای زبانی بزرگ (LLM) را در وظایف پیچیده – مثل مـدراتـیـون محتوای تبلیغاتی – تا دهها هزار برابر کاهش میدهد.
---
🛠 مراحل کار
1. مدل اولیه (LLM-0) روی کل داده پیشبینی و برچسبگذاری خودکار انجام میدهد.
2. دادهها خوشهبندی میشوند تا سختترین و مبهمترین نمونهها شناسایی شود.
3. تنها نمونههای متنوع و با بیشترین ارزش یادگیری انتخاب میشوند.
4. این نمونهها توسط کارشناسان انسانی برچسبگذاری میشوند.
5. فرآیند آموزش → انتخاب نمونههای دشوار → برچسبگذاری → آموزش مجدد چند بار تکرار میشود.
---
📊 نتایج کلیدی
* کاهش از ۱۰۰هزار نمونه برچسبخورده به کمتر از ۵۰۰ نمونه با حفظ یا بهبود کیفیت.
* بهبود معیار Cohen’s Kappa بین ۵۵ تا ۶۵ درصد.
* در مدلهای بزرگ عملیاتی: صرفهجویی ۳ تا ۴ مرتبهای در داده با کیفیت برابر یا بهتر.
---
📌معیار Cohen’s Kappa چیست؟
معیاری برای سنجش میزان توافق بین دو ارزیاب (مثلاً کارشناس و مدل) با حذف اثر توافق تصادفی:
* ۰.۰ → بدون توافق
* ۰.۴۱–۰.۶۰ → توافق متوسط
* ۰.۶۱–۰.۸۰ → توافق قابل توجه
* ۰.۸۱–۱.۰۰ → توافق تقریباً کامل
مزیت نسبت به Accuracy: مناسبتر برای دادههای با توزیع نامتوازن کلاسها.
---
💡 مزیتهای روش گوگل
* برچسبگذاری فقط روی نمونههای مهم
* مقیاسپذیر برای دیتاستهای حجیم (صدها میلیارد نمونه)
* کاهش شدید هزینه و زمان برچسبگذاری
* انطباق سریع برای حوزههایی با تغییرات مداوم قوانین (مانند تبلیغات، امنیت، محتوای کاربری)
---
📥 مطالعه کامل در بلاگ گوگل:
[https://research.google/blog/achieving-10000x-training-data-reduction-with-high-fidelity-labels/]
#هوش_مصنوعی #ActiveLearning #گوگل #LLM #یادگیری_ماشین #DataEfficiency
@rss_ai_ir
@rss_ai_ir
🔍 گوگل روشی مقیاسپذیر در Active Learning توسعه داده که حجم داده برچسبخورده موردنیاز برای آموزش مدلهای زبانی بزرگ (LLM) را در وظایف پیچیده – مثل مـدراتـیـون محتوای تبلیغاتی – تا دهها هزار برابر کاهش میدهد.
---
🛠 مراحل کار
1. مدل اولیه (LLM-0) روی کل داده پیشبینی و برچسبگذاری خودکار انجام میدهد.
2. دادهها خوشهبندی میشوند تا سختترین و مبهمترین نمونهها شناسایی شود.
3. تنها نمونههای متنوع و با بیشترین ارزش یادگیری انتخاب میشوند.
4. این نمونهها توسط کارشناسان انسانی برچسبگذاری میشوند.
5. فرآیند آموزش → انتخاب نمونههای دشوار → برچسبگذاری → آموزش مجدد چند بار تکرار میشود.
---
📊 نتایج کلیدی
* کاهش از ۱۰۰هزار نمونه برچسبخورده به کمتر از ۵۰۰ نمونه با حفظ یا بهبود کیفیت.
* بهبود معیار Cohen’s Kappa بین ۵۵ تا ۶۵ درصد.
* در مدلهای بزرگ عملیاتی: صرفهجویی ۳ تا ۴ مرتبهای در داده با کیفیت برابر یا بهتر.
---
📌معیار Cohen’s Kappa چیست؟
معیاری برای سنجش میزان توافق بین دو ارزیاب (مثلاً کارشناس و مدل) با حذف اثر توافق تصادفی:
* ۰.۰ → بدون توافق
* ۰.۴۱–۰.۶۰ → توافق متوسط
* ۰.۶۱–۰.۸۰ → توافق قابل توجه
* ۰.۸۱–۱.۰۰ → توافق تقریباً کامل
مزیت نسبت به Accuracy: مناسبتر برای دادههای با توزیع نامتوازن کلاسها.
---
💡 مزیتهای روش گوگل
* برچسبگذاری فقط روی نمونههای مهم
* مقیاسپذیر برای دیتاستهای حجیم (صدها میلیارد نمونه)
* کاهش شدید هزینه و زمان برچسبگذاری
* انطباق سریع برای حوزههایی با تغییرات مداوم قوانین (مانند تبلیغات، امنیت، محتوای کاربری)
---
📥 مطالعه کامل در بلاگ گوگل:
[https://research.google/blog/achieving-10000x-training-data-reduction-with-high-fidelity-labels/]
#هوش_مصنوعی #ActiveLearning #گوگل #LLM #یادگیری_ماشین #DataEfficiency
@rss_ai_ir
🔥23❤21🥰21😁20🎉20👏17👍12🙏1
⚡️ مدلهای زبانی GPT-OSS با فرمت GGUF توسط تیم Unsloth بهینهسازی و منتشر شدند
@rss_ai_ir
تیم توسعهدهنده Unsloth دو نسخه از مدلهای GPT-OSS با ۲۰ و ۱۲۰ میلیارد پارامتر را به فرمت GGUF تبدیل کرده و با رفع برخی ایرادات، کیفیت استنتاج (Inference) آنها را بهطور قابل توجهی افزایش دادهاند.
---
📌 پیکربندی پیشنهادی برای اجرا:
🔹 مدل با ۲۰ میلیارد پارامتر در حالت دقت کامل، تنها به ۱۴ گیگابایت حافظه رم نیاز دارد و با سرعتی بیش از ۱۰ توکن بر ثانیه اجرا میشود.
🔹 مدل ۱۲۰ میلیاردی نیز با حدود ۶۴ گیگ رم، خروجی بالای ۴۰ توکن بر ثانیه ارائه میدهد.
🔸 حتی در سیستمهایی با ۶ گیگ رم و بدون GPU هم امکان اجرا وجود دارد، اما سرعت استنتاج پایینتر خواهد بود.
---
📈 در صورت استفاده از کارت گرافیک، عملکرد مدلها بهمراتب بهتر خواهد بود.
برخی تستها با GPU قدرتمند H100 نشان دادهاند که سرعت خروجی به بیش از ۱۴۰ توکن بر ثانیه میرسد که حتی از ChatGPT نیز سریعتر است.
---
🧠 روشهای قابل استفاده برای اجرا:
اجرای مستقیم با ابزار llama.cpp
نرمافزارهای رابط مانند LM Studio
محیطهای تعاملی مانند Open WebUI
📌 مدل ۲۰B در عین سبک بودن، عملکردی نزدیک به مدلهایی مانند o3-mini دارد و برای سیستمهای ضعیفتر بسیار مناسب است.
---
🔧 نسخههایی با دقت ۴ بیت و ۱۶ بیت نیز آماده شدهاند.
نسخه ۴ بیتی حتی قابلیت فاینتیون روی کارتهای گرافیک با ۲۴ گیگابایت VRAM را دارد.
📄 مستندات کامل برای نصب و آموزش، توسط تیم Unsloth منتشر شده و گامبهگام مراحل راهاندازی را توضیح داده است.
منابع:
لینک 1
لینک 2
#مدل_زبانی #هوش_مصنوعی #GPT_OSS #Unsloth #GGUF #LLM
@rss_ai_ir
@rss_ai_ir
تیم توسعهدهنده Unsloth دو نسخه از مدلهای GPT-OSS با ۲۰ و ۱۲۰ میلیارد پارامتر را به فرمت GGUF تبدیل کرده و با رفع برخی ایرادات، کیفیت استنتاج (Inference) آنها را بهطور قابل توجهی افزایش دادهاند.
---
📌 پیکربندی پیشنهادی برای اجرا:
🔹 مدل با ۲۰ میلیارد پارامتر در حالت دقت کامل، تنها به ۱۴ گیگابایت حافظه رم نیاز دارد و با سرعتی بیش از ۱۰ توکن بر ثانیه اجرا میشود.
🔹 مدل ۱۲۰ میلیاردی نیز با حدود ۶۴ گیگ رم، خروجی بالای ۴۰ توکن بر ثانیه ارائه میدهد.
🔸 حتی در سیستمهایی با ۶ گیگ رم و بدون GPU هم امکان اجرا وجود دارد، اما سرعت استنتاج پایینتر خواهد بود.
---
📈 در صورت استفاده از کارت گرافیک، عملکرد مدلها بهمراتب بهتر خواهد بود.
برخی تستها با GPU قدرتمند H100 نشان دادهاند که سرعت خروجی به بیش از ۱۴۰ توکن بر ثانیه میرسد که حتی از ChatGPT نیز سریعتر است.
---
🧠 روشهای قابل استفاده برای اجرا:
اجرای مستقیم با ابزار llama.cpp
نرمافزارهای رابط مانند LM Studio
محیطهای تعاملی مانند Open WebUI
📌 مدل ۲۰B در عین سبک بودن، عملکردی نزدیک به مدلهایی مانند o3-mini دارد و برای سیستمهای ضعیفتر بسیار مناسب است.
---
🔧 نسخههایی با دقت ۴ بیت و ۱۶ بیت نیز آماده شدهاند.
نسخه ۴ بیتی حتی قابلیت فاینتیون روی کارتهای گرافیک با ۲۴ گیگابایت VRAM را دارد.
📄 مستندات کامل برای نصب و آموزش، توسط تیم Unsloth منتشر شده و گامبهگام مراحل راهاندازی را توضیح داده است.
منابع:
لینک 1
لینک 2
#مدل_زبانی #هوش_مصنوعی #GPT_OSS #Unsloth #GGUF #LLM
@rss_ai_ir
👍16🎉13👏11🥰9😁9❤7🔥6
📊🤖 بهبود دقت GPT-5 با پرامپت کاستوم جدید
تستها روی مدل gpt-5-nano با تلاش medium و بنچمارک MMLU-PRO نشان دادند که استفاده از نسخه سوم پرامپت کاستوم باعث افزایش دقت از 68.73٪ به 70.20٪ شده است (+1.47٪).
📌 ویژگیهای نسخه جدید
♻️استفاده از تکنیک «ساخت روبریک» در حین فکر کردن مدل
♻️ارزیابی داخلی پاسخها (۰ تا ۱۰۰) و بازنویسی در صورت کیفیت پایین
♻️حذف ترفندهای قدیمی بیاثر و بهبود فرمت خروجی
♻️بدون تحمیل جدول یا پیشنهاد اضافی مگر درخواستی باشد
📈 در نمودار دوم میبینید که تقریباً در تمام حوزهها (مهندسی، علوم کامپیوتر، شیمی، بیزینس، زیست، فیزیک و …) عملکرد کمی بهتر بوده است.
📥 پرامپت و توضیحات کامل:
github.com/DenisSergeevitch/chatgpt-custom-instructions
@rss_ai_ir 🚀 | #هوش_مصنوعی #پرامپت #GPT5 #LLM #پردازش_زبان
تستها روی مدل gpt-5-nano با تلاش medium و بنچمارک MMLU-PRO نشان دادند که استفاده از نسخه سوم پرامپت کاستوم باعث افزایش دقت از 68.73٪ به 70.20٪ شده است (+1.47٪).
📌 ویژگیهای نسخه جدید
♻️استفاده از تکنیک «ساخت روبریک» در حین فکر کردن مدل
♻️ارزیابی داخلی پاسخها (۰ تا ۱۰۰) و بازنویسی در صورت کیفیت پایین
♻️حذف ترفندهای قدیمی بیاثر و بهبود فرمت خروجی
♻️بدون تحمیل جدول یا پیشنهاد اضافی مگر درخواستی باشد
📈 در نمودار دوم میبینید که تقریباً در تمام حوزهها (مهندسی، علوم کامپیوتر، شیمی، بیزینس، زیست، فیزیک و …) عملکرد کمی بهتر بوده است.
📥 پرامپت و توضیحات کامل:
github.com/DenisSergeevitch/chatgpt-custom-instructions
@rss_ai_ir 🚀 | #هوش_مصنوعی #پرامپت #GPT5 #LLM #پردازش_زبان
🔥18❤12😁11👍9🥰7🎉6👏5
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 فاینتیونینگ کارآمد مدلهای زبانی با PEFT
✳️در پروژههای هوش مصنوعی، مخصوصاً مدلهای زبانی بزرگ (LLM)، فاینتیونینگ کامل تمام وزنها (Full Fine-Tuning) بسیار پرهزینه و نیازمند GPUهای قدرتمند است. تکنیک PEFT (Parameter-Efficient Fine-Tuning) با هدف کاهش این هزینهها معرفی شده و امروز یکی از رایجترین رویکردها برای سفارشیسازی مدلها در حوزه تخصصی است.
🔍 ایده اصلی PEFT
بهجای تغییر دادن همه پارامترهای مدل (که ممکن است میلیاردها وزن باشد)، فقط یک زیرمجموعه کوچک از پارامترها یا لایههای اضافه شده (مثل LoRA – Low-Rank Adaptation) آموزش داده میشود. وزنهای اصلی مدل پیشآموزشدیده (Pretrained Weights) ثابت میمانند و تنها ماتریسهای کمرتبهی افزوده شده بهروزرسانی میشوند.
⚙️ مهمترین روشهای PEFT
LoRA (Low-Rank Adaptation) 🟦
تزریق دو ماتریس کمرتبه (A و B) به وزنهای مدل
بهروزرسانی فقط این ماتریسها
کاهش چشمگیر تعداد پارامترهای قابلآموزش (تا 1000 برابر کمتر از Full Fine-Tuning)
Prefix-Tuning 🟧
اضافه کردن یک توالی از "توکنهای پیشوند" قابلآموزش به ورودی هر لایه ترنسفورمر
مناسب برای وظایف تولید متن (NLG) و دیالوگ
Prompt-Tuning 🟨
آموزش چند embedding بهعنوان پرامپت ثابت برای هدایت مدل مناسب برای سناریوهایی که ورودی همیشه ساختار مشخصی دارد
Adapters 🟩
اضافه کردن ماژولهای کوچک بین لایههای ترنسفورمر مدل اصلی ثابت میماند و فقط آداپترها آموزش میبینند
📊 مزایا برای پروژههای صنعتی
💾 نیاز کمتر به حافظه GPU (مثلاً 8GB هم کافی است)
⏱️ سرعت بالاتر آموزش و استقرار
🔄 قابلیت اشتراک و ترکیب ماژولهای فاینتیون (Adapter Fusion)
📦 امکان استفاده روی مدلهای خیلی بزرگ بدون منابع ابری گران
💡 کاربردهای تخصصی
♻️سفارشیسازی GPT یا LLaMA برای تحلیل متون حقوقی، پزشکی یا فنی
♻️آموزش مدلهای چندزبانه روی دادههای سازمانی محدود
♻️ایجاد نسخههای سبکتر و بهینه برای اجرا روی لبه (Edge AI)
📌 جمعبندی
روشPEFT با تمرکز روی تغییرات کمهزینه و ماژولار، فاینتیونینگ را برای همه قابلدسترس کرده است. بهجای روزها آموزش روی چندین GPU، میتوان با منابع محدود، مدلهای قدرتمند را دقیقاً مطابق نیاز حوزه تخصصی خود تنظیم کرد.
@rss_ai_ir 🤖
| #هوش_مصنوعی #LLM #PEFT #LoRA #پردازش_زبان_طبیعی
✳️در پروژههای هوش مصنوعی، مخصوصاً مدلهای زبانی بزرگ (LLM)، فاینتیونینگ کامل تمام وزنها (Full Fine-Tuning) بسیار پرهزینه و نیازمند GPUهای قدرتمند است. تکنیک PEFT (Parameter-Efficient Fine-Tuning) با هدف کاهش این هزینهها معرفی شده و امروز یکی از رایجترین رویکردها برای سفارشیسازی مدلها در حوزه تخصصی است.
🔍 ایده اصلی PEFT
بهجای تغییر دادن همه پارامترهای مدل (که ممکن است میلیاردها وزن باشد)، فقط یک زیرمجموعه کوچک از پارامترها یا لایههای اضافه شده (مثل LoRA – Low-Rank Adaptation) آموزش داده میشود. وزنهای اصلی مدل پیشآموزشدیده (Pretrained Weights) ثابت میمانند و تنها ماتریسهای کمرتبهی افزوده شده بهروزرسانی میشوند.
⚙️ مهمترین روشهای PEFT
LoRA (Low-Rank Adaptation) 🟦
تزریق دو ماتریس کمرتبه (A و B) به وزنهای مدل
بهروزرسانی فقط این ماتریسها
کاهش چشمگیر تعداد پارامترهای قابلآموزش (تا 1000 برابر کمتر از Full Fine-Tuning)
Prefix-Tuning 🟧
اضافه کردن یک توالی از "توکنهای پیشوند" قابلآموزش به ورودی هر لایه ترنسفورمر
مناسب برای وظایف تولید متن (NLG) و دیالوگ
Prompt-Tuning 🟨
آموزش چند embedding بهعنوان پرامپت ثابت برای هدایت مدل مناسب برای سناریوهایی که ورودی همیشه ساختار مشخصی دارد
Adapters 🟩
اضافه کردن ماژولهای کوچک بین لایههای ترنسفورمر مدل اصلی ثابت میماند و فقط آداپترها آموزش میبینند
📊 مزایا برای پروژههای صنعتی
💾 نیاز کمتر به حافظه GPU (مثلاً 8GB هم کافی است)
⏱️ سرعت بالاتر آموزش و استقرار
🔄 قابلیت اشتراک و ترکیب ماژولهای فاینتیون (Adapter Fusion)
📦 امکان استفاده روی مدلهای خیلی بزرگ بدون منابع ابری گران
💡 کاربردهای تخصصی
♻️سفارشیسازی GPT یا LLaMA برای تحلیل متون حقوقی، پزشکی یا فنی
♻️آموزش مدلهای چندزبانه روی دادههای سازمانی محدود
♻️ایجاد نسخههای سبکتر و بهینه برای اجرا روی لبه (Edge AI)
📌 جمعبندی
روشPEFT با تمرکز روی تغییرات کمهزینه و ماژولار، فاینتیونینگ را برای همه قابلدسترس کرده است. بهجای روزها آموزش روی چندین GPU، میتوان با منابع محدود، مدلهای قدرتمند را دقیقاً مطابق نیاز حوزه تخصصی خود تنظیم کرد.
@rss_ai_ir 🤖
| #هوش_مصنوعی #LLM #PEFT #LoRA #پردازش_زبان_طبیعی
😁9🎉8🔥7👏6❤3🥰3👍1
📊 نتایج مقایسه مدلهای هوش مصنوعی در معیار AlgoTune نشان میدهد که مدلهای کوچکتر مانند o4-mini و DeepSeek R1 با بودجه بسیار کمتر، شتاب بالایی ایجاد میکنند.
🔹 نکات کلیدی:
✳️مدل o4-mini با امتیاز 1.71x و R1 با 1.69x در صدر قرار دارند.
✳️حتی با بودجه ۰.۱ دلار، این دو مدل به امتیازی بهتر از Claude Opus در بودجه کامل ۱ دلار میرسند.
✳️بیشترین رشد عملکرد مدلهای کوچک قبل از ۰.۵ دلار اتفاق میافتد و پس از آن شیب افزایش کاهش مییابد.
✳️رویکرد budget-constrained benchmarking هرچند در کاربرد عملی محدودیتهایی دارد، اما برای تحقیقات دانشگاهی و پروژههای دانشجویی میتواند بسیار ارزشمند باشد.
#هوش_مصنوعی #LLM #بنچمارک #بهینهسازی_الگوریتم
@rss_ai_ir 🚀
🔹 نکات کلیدی:
✳️مدل o4-mini با امتیاز 1.71x و R1 با 1.69x در صدر قرار دارند.
✳️حتی با بودجه ۰.۱ دلار، این دو مدل به امتیازی بهتر از Claude Opus در بودجه کامل ۱ دلار میرسند.
✳️بیشترین رشد عملکرد مدلهای کوچک قبل از ۰.۵ دلار اتفاق میافتد و پس از آن شیب افزایش کاهش مییابد.
✳️رویکرد budget-constrained benchmarking هرچند در کاربرد عملی محدودیتهایی دارد، اما برای تحقیقات دانشگاهی و پروژههای دانشجویی میتواند بسیار ارزشمند باشد.
#هوش_مصنوعی #LLM #بنچمارک #بهینهسازی_الگوریتم
@rss_ai_ir 🚀
🔥10😁6❤4👍4🎉2
مدیر سابق گوگل David Petrou که به خاطر کار روی Google Goggles و Google Glass شناخته میشود، استارتاپی به نام Continua راهاندازی کرده است 💬🤖 — یک عامل هوش مصنوعی که میتواند به گروههای چت در SMS، iMessage و Discord بپیوندد تا در هماهنگی برنامهها، مدیریت وظایف و کاهش شلوغی گفتگو کمک کند.
---
✨ جزئیات کلیدی
♻️جذب سرمایه ۸ میلیون دلاری در دور Seed به رهبری GV با مشارکت Bessemer Venture Partners و سرمایهگذاران فرشته.
♻️قابلیتهایی مانند تنظیم یادآور، برگزاری نظرسنجی، ایجاد اسناد و پاسخگویی به سوالات در پیام خصوصی (DM).
♻️آموزش ویژه برای مدیریت مکالمات چندنفره با هوش اجتماعی.
♻️امکان افزودن مستقیم Continua به گروهها و تعیین میزان مشارکت آن توسط کاربر.
---
🎯 هدف این پروژه، تبدیل مدلهای زبانی بزرگ (LLM) به بخشی طبیعی و بدون مزاحمت از هماهنگی روزمره در گروههاست.
#هوش_مصنوعی 🤖 #استارتاپ 🚀 #چت_بات 💬 #مدیریت_وظایف 📅 #LLM
---
✨ جزئیات کلیدی
♻️جذب سرمایه ۸ میلیون دلاری در دور Seed به رهبری GV با مشارکت Bessemer Venture Partners و سرمایهگذاران فرشته.
♻️قابلیتهایی مانند تنظیم یادآور، برگزاری نظرسنجی، ایجاد اسناد و پاسخگویی به سوالات در پیام خصوصی (DM).
♻️آموزش ویژه برای مدیریت مکالمات چندنفره با هوش اجتماعی.
♻️امکان افزودن مستقیم Continua به گروهها و تعیین میزان مشارکت آن توسط کاربر.
---
🎯 هدف این پروژه، تبدیل مدلهای زبانی بزرگ (LLM) به بخشی طبیعی و بدون مزاحمت از هماهنگی روزمره در گروههاست.
#هوش_مصنوعی 🤖 #استارتاپ 🚀 #چت_بات 💬 #مدیریت_وظایف 📅 #LLM
🎉9😁7❤5🔥3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🩺 وقتی هوش مصنوعی از بسیاری از پزشکان بهتر عمل میکند
✅داریو آمودئی، مدیرعامل Anthropic، میگوید:
❌برخی از برندگان نوبل در زیستشناسی امروز از LLMها (مدلهای زبانی بزرگ) مشاورههای بهتری نسبت به اکثر پزشکان دریافت میکنند.
🔹 او تأکید میکند که البته ۱٪ برتر پزشکان همچنان ارزش مراجعه حضوری دارند،
اما برای بقیه موارد، LLMها سریعتر، سازگارتر و دقیقتر عمل میکنند.
💡 چرا؟
زیرا بخش زیادی از کار پزشکی الگویابی و ترکیب حقایق است، و این دقیقاً همان چیزی است که LLMها در آن میدرخشند.
🌐 #هوش_مصنوعی #پزشکی_دیجیتال #LLM #AIHealthcare
🧠 @rss_ai_ir
✅داریو آمودئی، مدیرعامل Anthropic، میگوید:
❌برخی از برندگان نوبل در زیستشناسی امروز از LLMها (مدلهای زبانی بزرگ) مشاورههای بهتری نسبت به اکثر پزشکان دریافت میکنند.
🔹 او تأکید میکند که البته ۱٪ برتر پزشکان همچنان ارزش مراجعه حضوری دارند،
اما برای بقیه موارد، LLMها سریعتر، سازگارتر و دقیقتر عمل میکنند.
💡 چرا؟
زیرا بخش زیادی از کار پزشکی الگویابی و ترکیب حقایق است، و این دقیقاً همان چیزی است که LLMها در آن میدرخشند.
🌐 #هوش_مصنوعی #پزشکی_دیجیتال #LLM #AIHealthcare
🧠 @rss_ai_ir
❤8🎉7🔥6👍3😁1