VIRSUN
15.3K subscribers
448 photos
257 videos
2 files
266 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
加入频道
مدیر سابق گوگل David Petrou که به خاطر کار روی Google Goggles و Google Glass شناخته می‌شود، استارتاپی به نام Continua راه‌اندازی کرده است 💬🤖 — یک عامل هوش مصنوعی که می‌تواند به گروه‌های چت در SMS، iMessage و Discord بپیوندد تا در هماهنگی برنامه‌ها، مدیریت وظایف و کاهش شلوغی گفتگو کمک کند.


---

جزئیات کلیدی

♻️جذب سرمایه ۸ میلیون دلاری در دور Seed به رهبری GV با مشارکت Bessemer Venture Partners و سرمایه‌گذاران فرشته.

♻️قابلیت‌هایی مانند تنظیم یادآور، برگزاری نظرسنجی، ایجاد اسناد و پاسخ‌گویی به سوالات در پیام خصوصی (DM).

♻️آموزش ویژه برای مدیریت مکالمات چندنفره با هوش اجتماعی.

♻️امکان افزودن مستقیم Continua به گروه‌ها و تعیین میزان مشارکت آن توسط کاربر.



---

🎯 هدف این پروژه، تبدیل مدل‌های زبانی بزرگ (LLM) به بخشی طبیعی و بدون مزاحمت از هماهنگی روزمره در گروه‌هاست.

#هوش_مصنوعی 🤖 #استارتاپ 🚀 #چت_بات 💬 #مدیریت_وظایف 📅 #LLM
🎉9😁75🔥3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🩺 وقتی هوش مصنوعی از بسیاری از پزشکان بهتر عمل می‌کند

داریو آمودئی، مدیرعامل Anthropic، می‌گوید:

برخی از برندگان نوبل در زیست‌شناسی امروز از LLMها (مدل‌های زبانی بزرگ) مشاوره‌های بهتری نسبت به اکثر پزشکان دریافت می‌کنند.



🔹 او تأکید می‌کند که البته ۱٪ برتر پزشکان همچنان ارزش مراجعه حضوری دارند،
اما برای بقیه موارد، LLMها سریع‌تر، سازگارتر و دقیق‌تر عمل می‌کنند.

💡 چرا؟
زیرا بخش زیادی از کار پزشکی الگو‌یابی و ترکیب حقایق است، و این دقیقاً همان چیزی است که LLMها در آن می‌درخشند.

🌐 #هوش_مصنوعی #پزشکی_دیجیتال #LLM #AIHealthcare
🧠 @rss_ai_ir
8🎉7🔥6👍3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 نقشه راه برای تبدیل شدن به پرامپت انجینیر در سال ۲۰۲۵ 🧑🏻‍💻

برای متخصص شدن در حوزه Prompt Engineering باید مسیر زیر را طی کنید:

1️⃣ یادگیری مبانی اولیه پرامپت‌نویسی
2️⃣ آشنایی با مدل‌های زبانی (LLMs) و نحوه تنظیم آن‌ها
3️⃣ تمرین نوشتن پرامپت‌های کارآمد و بهینه
4️⃣ ساخت الگوهای پرامپت و درک معماری آن‌ها
5️⃣ تسلط بر تکنیک‌های پیشرفته در پرامپت‌نویسی
6️⃣ تجربه کار با مدل‌های چندوجهی (متنی–تصویری–صوتی)
7️⃣ تمرین مداوم برای تبدیل شدن به یک پرامپت‌نویس حرفه‌ای

🌐 آینده مشاغل مرتبط با هوش مصنوعی نیازمند مهارت در پرامپت‌نویسی است. کسی که این مهارت را دارد، نقش کلیدی در جهت‌دهی به مدل‌های هوش مصنوعی ایفا می‌کند.

#هوش_مصنوعی #PromptEngineering #AI #LLM #DeepLearning
@rss_ai_ir
👍8🔥64🎉4😁1
😎 حقیقت جالبی که خیلی از توسعه‌دهنده‌ها درک کرده‌اند اینه که کاربران عادی اهمیتی به «پرامپت‌سازی حرفه‌ای» نمی‌دهند.

📊 در تمام اپلیکیشن‌هایی که روی LLM ساخته شده‌اند، آنالیتیک‌ها نشان می‌دهد کاربر یک جمله ساده می‌نویسد و انتظار خروجی کامل دارد. به همین دلیل، توسعه‌دهندگان داخل خودِ اپ حجم زیادی از دستورالعمل‌ها و ساختارها را به‌صورت پیش‌فرض جاسازی می‌کنند تا همان درخواست ساده‌ی کاربر به یک پرامپت پیچیده و کاربردی تبدیل شود.

🧠 از طرف دیگر، مدل‌های «تفکری» (Thinking Models) اساساً نیازمند پرامپت‌های کلاسیک نیستند. این مدل‌ها خودشان جای خالی درخواستی کاربر را پر می‌کنند و بافت منطقی یا داده‌ای لازم را اضافه می‌کنند. تعداد کمی از افراد بلدند این نسل از مدل‌ها را درست پرامپت کنند، ولی واقعیت اینه که برای عموم کاربرها هم نیازی نیست.

بله، مواقعی هست که یک پرامپت خیلی خاص و دقیق لازم می‌شود (مثلاً در یک تسک پژوهشی یا تخصصی)، اما این‌ها استثنا هستند. اگر تا حالا در چنین وضعیتی نبودید، اصلاً مهم نیست – می‌توانید بی‌خیال ماجرای «پرامپت پارسلتانگ» شوید.

نتیجه: تنبل بودن در پرامپت‌نویسی نه تنها اشکال نداره، بلکه مسیر درست استفاده از LLM همین است. احترام به کسانی که راحت می‌نویسند و انتظار دارند AI خودش فکر کند! 🙌

@rss_ai_ir | #LLM #AI #Prompting
👍10🔥6🎉65👏1😁1
🧠 SSRL: Self-Search Reinforcement Learning

♻️مقاله‌ای تازه از Yanxu Chen و همکاران رویکردی نو به آموزش مدل‌های زبانی بزرگ (LLMs) معرفی کرده: یادگیری تقویتی با جستجوی درونی (Self-Search RL).
---

🔹 ایده اصلی
♻️به جای اینکه مدل برای یادگیری نیازمند اتصال به موتورهای جستجوی بیرونی باشه (که هزینه‌بر و کند است)، در محیطی شبیه‌سازی‌شده از خودش به عنوان عامل و محیط استفاده می‌کنه. مدل به‌صورت خودبازگشتی (autoregressive) هم کوئری جستجو تولید می‌کنه و هم پاسخ اطلاعاتی، و سپس با پاداش‌های مبتنی بر فرمت و نتیجه آموزش داده میشه.

---

🔹 هدف

♻️سنجش ظرفیت‌های جستجوی درونی (intrinsic search capabilities) در LLMها

♻️بررسی اینکه آیا آموزش در محیط «کاملاً شبیه‌سازی‌شده» می‌تونه به انتقال مؤثر در دنیای واقعی (sim-to-real transfer) منجر بشه یا نه.

---

🔹 نتایج کلیدی

♻️مدل Llama-3.1-8B-Instruct که با SSRL آموزش دید، در شش بنچمارک به میانگین ۴۳.۱٪ دقت رسید.
♻️این عملکرد از ZeroSearch (با ۴۱.۵٪) بهتر بود.
♻️در مقایسه با روش‌های وابسته به API، SSRL هزینه آموزش رو به‌شدت کاهش میده، چون نیازی به فراخوانی مداوم APIها نداره.

---

🔹 پیام برای متخصصان AI
♻️همچنین SSRL یک پارادایم کم‌هزینه و کارآمد برای آموزش عامل‌های جستجو فراهم می‌کنه.
♻️مدل‌ها در فاز آموزش کاملاً روی داده‌های شبیه‌سازی‌شده تمرین می‌کنن، و بعد می‌تونن در زمان استقرار واقعی با موتورهای جستجو به‌کار گرفته بشن. این یعنی ترکیب سرعت، کاهش هزینه و بهبود کارایی در توسعه نسل بعدی عامل‌های جستجوگر.

📌 بیشتر بخوانید:

arXiv

HuggingFace Papers


#هوش_مصنوعی #یادگیری_تقویتی #LLM #SSRL #جستجو
@rss_ai_ir
🔥7👍6🥰6👏6😁54🎉3
🆕 DeepSeek-V3.1 منتشر شد

مدل جدید فعلاً بدون اعلام رسمی بیرون اومده، اما وزن‌های نسخه base روی HuggingFace قرار گرفته‌اند. 📂

🔹 آنچه تا الان می‌دونیم:

♻️ظرفیت کانتکست افزایش پیدا کرده تا ۱۲۸هزار توکن
♻️دامنه‌ی دانش به‌روز شده تا جولای ۲۰۲۴
♻️معماری تغییر اساسی نداشته، اما گزارش شده که مدل به‌صورت هیبریدی طراحی شده


با وجود این تغییرات، به نظر می‌رسه این نسخه بیشتر یک آپدیت کوچک باشه تا یک جهش بزرگ. حالا باید منتظر بنچمارک‌ها و پست رسمی بلاگ بمونیم تا تصویر دقیق‌تری به دست بیاد 🤔

#هوش_مصنوعی #DeepSeek #LLM #مدل_زبانی
@rss_ai_ir
👍12😁12🔥98🎉6🥰4👏2
📌 عنوان:
چرا دراپ‌اوت فقط یک «خاموش‌کننده تصادفی» نیست؟ 🤔🔍

---

بیشتر متخصصان هوش مصنوعی، دراپ‌اوت را صرفاً روشی برای خاموش کردن تصادفی نرون‌ها می‌دانند، اما پشت این تکنیک ایده‌ای عمیق‌تر وجود دارد که آن را به یکی از مهم‌ترین روش‌های منظم‌سازی (Regularization) تبدیل کرده است.

💡 ایده اصلی
در مراحل آموزش، هر بار درصدی از نرون‌ها (مثلاً ۲۰ تا ۵۰٪) به طور تصادفی غیرفعال می‌شوند. این کار جلوی وابستگی بیش‌ازحد شبکه به مسیرهای خاص پردازش اطلاعات را می‌گیرد.

🌀 اثر پنهان
دراپ‌اوت در عمل شبیه ترکیب‌گیری مدل‌ها (Ensemble) عمل می‌کند. با هر بار غیرفعال شدن بخشی از نرون‌ها، یک زیرمدل جدید ساخته می‌شود و در نهایت، خروجی مدل مانند میانگین‌گیری از هزاران زیرمدل مستقل خواهد بود.

🚀 چرا اهمیت دارد؟
- کاهش شدید بیش‌برازش (Overfitting) بدون نیاز به داده اضافه
- ایجاد تعداد زیادی مدل کوچک در دل یک مدل اصلی بدون هزینه‌ی جداگانه
- سازگاری فوق‌العاده با معماری‌های پیشرفته مثل ترنسفورمرها

⚙️ نکته تخصصی
در هنگام تست، دراپ‌اوت غیرفعال است اما وزن‌ها با توجه به احتمال غیرفعال‌سازی، مقیاس‌بندی (Re-scaling) می‌شوند تا خروجی سازگار باقی بماند.

---

🔖 #هوش_مصنوعی #یادگیری_عمیق #LLM #شبکه_عصبی #دراپ_اوت #DeepLearning #AI #MachineLearning
@rss_ai_ir
🥰8👏5😁54🔥4👍2🎉2
🧪ابزار DeepEval؛ چارچوب متن‌باز برای ارزیابی LLMها

ابزار DeepEval یک ابزار ساده و متن‌باز است که برای ارزیابی و تست سیستم‌های مدل زبانی بزرگ طراحی شده. این فریمورک شبیه Pytest عمل می‌کند اما تخصصی برای یونیت‌تست خروجی‌های LLM ساخته شده است.

🔹 ویژگی‌ها:

♻️پشتیبانی از متریک‌های مهم مثل G-Eval، hallucination، answer relevancy، RAGAS و غیره.

♻️اجرای محلی روی سیستم شما بدون وابستگی به سرور خارجی.

♻️مناسب برای RAG pipelineها، چت‌بات‌ها، ایجنت‌ها و پیاده‌سازی با ابزارهایی مثل LangChain یا LlamaIndex.

♻️کمک به بهینه‌سازی مدل‌ها، پرامپت‌ها و معماری برای جلوگیری از prompt drifting یا حتی مهاجرت از OpenAI به میزبانی داخلی مثل DeepSeek R1.


📌 لینک‌ها:
🖥 Github: github.com/confident-ai/deepeval
📕 Colab: Google Colab Notebook
🔗 Project: deepeval.com

@rss_ai_ir
#هوش_مصنوعی #LLM #ارزیابی #DeepEval #AItools
🔥9🥰86👍6🎉6👏5😁4
📊 چارچوب EfficientLLM به ما یادآوری می‌کنه که در دنیای مدل‌های بزرگ، فقط کیفیت مهم نیست؛ کارایی هم به‌اندازه کافی حیاتی‌ست.

پژوهشگران بیش از ۱۰۰ پیکربندی LLM/VLM رو بررسی کردن و به‌جای تمرکز روی FLOPs تئوریک، معیارهای واقعی مثل مصرف حافظه (VRAM)، تأخیر (Latency) و انرژی رو سنجیدن.

🔑 چند نکته کلیدی:

وقتی حافظه یا سرعت گلوگاه باشه → مکانیزم‌های توجه (Attention) با تعداد کلید/هد کمتر، مصرف VRAM و زمان پاسخ رو به‌شدت کاهش می‌دن.

اگر دقت حرف اول رو می‌زنه → توجه کامل (Full Attention) و موقعیت‌دهی RoPE بهترین انتخاب هستن، اما هزینه‌ی منابع بالاتر خواهد بود.

✳️همچنین MoE (Mixture of Experts) کیفیت رو بدون افزایش زیاد هزینه‌ی محاسباتی بالا می‌بره، ولی VRAM بیشتری نیاز داره و دیپلوی سخت‌تر می‌شه.

در فاین‌تیونینگ:
✳️ مدل‌های کوچک (≈۱–۳B) → LoRA و خانواده‌اش بهترین بازدهی رو دارن.
✳️ مدل‌های بزرگ‌تر (≈۱۴B+) → RSLoRA معمولا برتره.
✳️ اگر چرخه‌های سریع مهم باشه → Freeze لایه‌ها سرعت رو چندبرابر می‌کنه.

در استنتاج:
♻️ کوانتیزه‌سازی تا int4 جهش بزرگی در صرفه‌جویی هزینه/وات/گیگابایت می‌ده، با اندکی افت دقت.
♻️ برای حفظ دقت بالا → bf16 معمولا بهتر از fp16 روی GPUهای مدرن عمل می‌کنه.


📌 جمع‌بندی:

کمبود VRAM → توجه بهینه + موقعیت نسبی + LoRA + int4

نیاز به حداکثر دقت → توجه کامل + RoPE + RSLoRA + bf16

محدودیت Compute → سراغ MoE بروید، اما VRAM رو حساب کنید

چرخه‌های سریع توسعه → Freeze موقت، بعد LoRA/RSLoRA


شما بیشتر کجا گیر می‌کنید؟ حافظه، سرعت، انرژی یا دقت؟

@rss_ai_ir
#هوش_مصنوعی #مدل_زبان_بزرگ #بهینه‌سازی #LLM #کارایی
😁7🔥65👍5👏4🎉4🥰2
📌 دیپ‌سیک نسخه V3.1

♻️مدل جدید با ۶۸۵ میلیارد پارامتر به‌عنوان یک مدل متن‌باز ترکیبی برای استدلال معرفی شده است. این نسخه علاوه بر بهبودهای کیفی، تمرکز ویژه‌ای روی توانایی‌های عامل‌محور (agentic capabilities) دارد.

📊 نتایج بنچمارک‌ها نشان می‌دهد:

♻️در SWE-bench Verified امتیاز 66.0 در برابر 44.6 نسخه R1
♻️در SWE-bench Multilingual امتیاز 54.5 (تقریباً دو برابر نسخه‌های قبلی)
♻️در Terminal-Bench جهش بزرگ تا 31.3 (مقایسه با 5.7 نسخه R1)


همچنین در حوزه‌های کاربردی دیگر:

SimpleQA → دقت 93.4%

Frames → امتیاز 83.7

xBench-DeepSearch → امتیاز 71.2

و در Browsecomp نیز برتری قابل توجه نسبت به نسخه قبلی.


🚀 این نتایج نشان می‌دهد که DeepSeek-V3.1 یکی از قوی‌ترین مدل‌های متن‌باز حال حاضر است، مخصوصاً در وظایف چندزبانه، QA و محیط‌های پویا مثل ترمینال.

🔗 این حرکت، رقابت متن‌بازها با مدل‌های کلوزد مثل GPT-5 و Claude را وارد مرحله تازه‌ای می‌کند.

#AI #LLM #DeepSeek #opensource #benchmark

@rss_ai_ir
🔥 درست یک سال گذشت و حالا xAI وزن‌های Grok 2 را منتشر کرده است.

🔹 معماری همانند Grok 1 باقی مانده: مبتنی بر MoE (Mixture of Experts) با ۸ اکسپرت.
🔹 از نظر متریک‌ها، عملکرد در سطح GPT-4o و Claude 3.5 Sonnet گزارش شده.
🔹 حجم چک‌پوینت حدود ۵۰۰ گیگابایت است و برای اجرا نیاز به ۸ کارت GPU با بیش از ۴۰ گیگابایت حافظه در هر کارت دارید.
🔹 لایسنس استفاده بسیار باز است: هم استفاده غیرتجاری رایگان و هم استفاده تجاری تا سقف ۱ میلیون دلار درآمد سالانه مجاز است.

📂 مدل در Hugging Face در دسترس قرار گرفته.

@rss_ai_ir
#Grok #xAI #هوش_مصنوعی #LLM #OpenSource
18🔥12😁10👍7🎉7👏1
🌍 معرفی MCP-Universe: بِنچمارک جدید Salesforce برای LLMها با سرورهای MCP

🔹 شرکت Salesforce یک بِنچمارک تازه منتشر کرده که توانایی مدل‌های زبانی بزرگ (LLM) را در کار با MCP (Model Context Protocol) می‌سنجد. MCP که اواخر ۲۰۲۴ توسط Anthropic معرفی شد، پروتکلی است برای اتصال LLM به سرویس‌ها و منابع داده‌ی بیرونی (مثل ابزارها و APIها).


---

🔎 ساختار بِنچمارک

♻️شامل ۱۱ MCP سرور با ۱۳۳ ابزار در ۶ حوزه مختلف
♻️در مجموع ۲۳۱ تسک واقعی طراحی شد، که هرکدام نیازمند یک یا چند تعامل MCP هستند


📌 نمونه حوزه‌ها و زیرتسک‌ها:

🗺 ناوبری روی نقشه: مسیریابی، ایستگاه‌های بهینه، جستجوی مکان و جستجو بر اساس ID

💻 مدیریت ریپازیتوری کد: تنظیم پروژه، ترکینگ مشکلات، اتوماسیون و ادغام کد

💰 تحلیل مالی: پورتفولیو، گزارش‌دهی، استراتژی معاملاتی، دارایی‌های نهادی، تحلیل سود سهام

🎨 طراحی سه‌بعدی (Blender): ساخت آبجکت، متریال، نورپردازی، رندر و سازمان‌دهی صحنه

🌐 اتوماسیون مرورگر: رزرو بلیط، تحلیل ورزشی، ریسرچ آکادمیک، پلتفرم آنالیز و ناوبری نقشه

🔎 وب‌سرچ: شناسایی افراد، استخراج موجودیت‌ها، متریک مَچینگ، استدلال پیچیده، فکت چک



---

⚙️ روش ارزیابی

♻️بررسی صحت فرمت پاسخ
♻️مقایسه ساده با جواب درست
♻️ارزیابی داینامیک (برای پرسش‌هایی مثل «امروز هوا چطوره» که پاسخ ثابت ندارند)


❗️ بخش بزرگی از تسک‌ها بیش از ۵ تماس با MCP نیاز دارند، یعنی مدل باید توانایی کار با کانتکست‌های طولانی و زنجیره تعاملات پیچیده را داشته باشد. همچنین تسک‌های بیش‌ازحد ساده یا مستقل از MCP فیلتر شدند.


---

اهمیت این بِنچمارک در اینه که داره اولین بار مهارت واقعی LLMها در تعامل با ابزارهای بیرونی و حل مسائل دنیای واقعی رو می‌سنجه، نه فقط پرسش و پاسخ متنی.

@rss_ai_ir
#هوش_مصنوعی #LLM #MCP #AI_Benchmark #صنعت
🔥1312👍12🎉8😁6
📊 نتایج بنچمارک MCP-Universe

تست‌های تازه‌ی MCP-Universe یک برنده‌ی مشخص داشتند: GPT-5 با اختلاف زیاد در صدر قرار گرفت:

🏆 نرخ موفقیت (SR) → ۴۳.۷٪

🏆 امتیاز ارزیابان (AE) → ۶۰.۲٪

📈 در تمام حوزه‌ها پیشتاز است، به جز Browser Automation که کمی بهتر از آن Grok-4 عمل کرده.



---

🔎 جزئیات بر اساس حوزه‌ها:

تحلیل مالی (Financial Analysis) → رکورد GPT-5 با ۶۷.۵٪؛ فاصله‌ی چشمگیر از بقیه.

طراحی سه‌بعدی (3D Designing) → باز هم صدرنشین با ۵۲.۶٪.

مدیریت مخزن کد (Repository Management) → GPT-5 با ۳۰.۳٪ به‌وضوح بالاتر از رقباست.

اتوماسیون مرورگر (Browser Automation) → این‌جا شگفتی رقم خورد: Grok-4 با ۴۱.۰٪ جلوتر از GPT-5 (۳۵.۹٪).



---

🟢 در میان مدل‌های متن‌باز (Open-Source):

♻️مدل GLM-4.5 بهترین عملکرد را داشت با ۲۴.۷٪ SR و ۴۱.۲٪ AE.

♻️مدل Kimi-K2 با وجود تبلیغات زیاد درباره‌ی آموزش ویژه برای MCP، تنها به ۱۹٪ SR رسید.



---

⚠️ نکته‌ی مهم: حتی رهبر جدول یعنی GPT-5 هم نتوانست از مرز ۵۰٪ کیفیت نهایی عبور کند. این نشان می‌دهد که تعامل LLMها با سرورهای MCP هنوز راه زیادی تا بلوغ کامل دارد، و این وظایف واقعاً پیچیده و چندلایه هستند.

@rss_ai_ir
#هوش_مصنوعی #LLM #MCP #GPT5 #Benchmarks
15😁11🔥9👍8🎉8
This media is not supported in your browser
VIEW IN TELEGRAM
🆕 ابزار جدید Hugging Face: AI Sheets

⛔️جدول‌ها حالا هوشمند شدند!

✳️مجموعه Hugging Face معرفی کرد AI Sheets، یک ابزار بدون کدنویسی برای ساخت و پردازش داده‌های جدولی با کمک هوش مصنوعی:

🔹 ظاهر شبیه اکسل، اما به جای فرمول‌ها از هزاران مدل استفاده می‌کند.
🔹 پشتیبانی از مدل‌های OpenAI-API و مدل‌های لوکال.
🔹 امکان افزودن ستون با پرامپت‌ها، ویرایش داده‌ها به صورت دستی یا با لایک/دیسلایک.
🔹 قابل اجرا به صورت آنلاین یا لوکال (Docker / pnpm).
🔹 کاملاً اپن‌سورس (Apache-2.0) و قابل ادغام در هر پایپ‌لاین.
🔹 مناسب برای کلاسیفیکیشن، تغییر داده‌ها، تولید داده‌های مصنوعی و تست حس و vibe مدل‌ها.

⚡️ نسخه آزمایشی در دسترس است.

#هوش_مصنوعی #بدون_کدنویسی #دیتاست #HuggingFace #LLM #AI


@rss_ai_ir
4👍1👏1🙏1
🧠 مدل ThinkDial: کنترل باز و دقیق بر میزان استدلال در LLMها

پژوهشگران با معرفی ThinkDial اولین چارچوب بازمتن (Open-Recipe) برای کنترل سطح استدلال در مدل‌های زبانی بزرگ (LLMها) را ارائه کرده‌اند. این چارچوب همان چیزی است که پیش‌تر در سیستم‌های اختصاصی مثل GPT-OSS دیده بودیم، اما حالا به شکل باز در دسترس پژوهشگران قرار گرفته است.

🔑 ایده اصلی
به جای اینکه مدل همیشه با حداکثر توان استدلال کند (که هزینه محاسباتی بالایی دارد)، ThinkDial به شما اجازه می‌دهد بین حالت‌های مختلف عملیات جابه‌جا شوید:
✳️حالت Medium: کاهش ۵۰٪ تعداد توکن‌ها، با کمتر از ۱۰٪ افت کارایی
✳️حالت Low: کاهش ۷۵٪ توکن‌ها، با کمتر از ۱۵٪ افت کارایی
✳️این یعنی شما می‌توانید سطح استدلال را بر اساس نیاز پروژه (مثلاً چت سبک، تحلیل سریع یا پژوهش دقیق) تنظیم کنید.

نوآوری‌ها

1. Budget-Mode Supervised Fine-tuning → تنظیم دقیق مدل برای سطوح مختلف مصرف محاسباتی.


2. Budget-Aware Reinforcement Learning → یادگیری تقویتی دو‌مرحله‌ای برای هماهنگی دقت و هزینه.


3. Leak Penalty → مکانیزمی که مانع از آن می‌شود مدل استدلال را به بخش نهایی پاسخ منتقل کند (یعنی واقعاً تعداد توکن‌های استدلال کاهش یابد).



📊 مزیت‌ها برای صنعت

♻️کاهش هزینه اجرای مدل‌ها در دیتاسنترها.
♻️امکان استقرار مدل روی دستگاه‌های با منابع محدود.
♻️انعطاف‌پذیری بالا برای کاربردهای مختلف: از دستیارهای گفت‌وگویی سبک گرفته تا تحلیل‌های پیچیده مالی یا علمی.


📄 مقاله: arXiv
🖥️ مدل‌ها و کد: HuggingFace

#هوش_مصنوعی #LLM #بهینه‌سازی #استدلال_ماشین #ThinkDial
@rss_ai_ir
👍1🔥1👏1