VIRSUN
15.7K subscribers
350 photos
210 videos
2 files
215 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
加入频道
This media is not supported in your browser
VIEW IN TELEGRAM
🤖💥 پلتفرم MassGen؛ معماری چندعاملی برای همکاری بین مدل‌های هوش مصنوعی

پروژه MassGen یک چارچوب پیشرفته برای تعامل میان چندین عامل هوش مصنوعی (AI agents) است که با هدف تقسیم وظایف پیچیده میان مدل‌های مختلف طراحی شده است.
این سیستم با استفاده از هوش مصنوعی تعاملی و چندعاملی (collaborative AI)، امکان حل مسئله‌های سطح بالا را با همکاری مدل‌های متعدد فراهم می‌سازد.

🧩 ویژگی‌های کلیدی MassGen:

♻️هم‌افزایی بین مدل‌ها (model synergy)
♻️پردازش موازی وظایف پیچیده
♻️اشتراک دانش و تعامل چندعاملی
♻️ساخت اجماع (consensus) بین عامل‌ها
♻️نمایش زنده و گرافیکی از روند همکاری


📡 قابلیت اتصال به مدل‌های هوش مصنوعی برجسته مانند:

♻️Google Gemini
♻️OpenAI (مانند GPT)
♻️xAI Grok
♻️و همچنین پشتیبانی از ابزارهای سفارشی (Custom tools) و حالت تعاملی گفت‌وگو بین عامل‌ها.


این پروژه برای توسعه‌دهندگان، محققان و علاقه‌مندان به سیستم‌های چندعاملی و تعامل بین مدل‌های زبانی می‌تواند بستری فوق‌العاده قدرتمند و قابل توسعه باشد.

🔗 سورس‌کد و اطلاعات بیشتر:
github.com/Leezekun/MassGen

——
@rss_ai_ir
#هوش_مصنوعی #MultiAgent #MassGen #سیستم_هوشمند #پروژه_AI #GPT #Gemini #Grok #مدل_چندعاملی #هوش_تعاملی
👍2👏1🙏1
🧠 ۹ تکنیک مدرن برای بهینه‌سازی سیاست (Policy Optimization) در مدل‌های هوش مصنوعی

در دنیای مدل‌های زبانی بزرگ (LLM)، الگوریتم‌های تقویتی مثل RLHF باید بهینه، دقیق و کم‌مصرف باشند. این ۹ روش جدید، هر کدام برای یک چالش خاص طراحی شده‌اند 👇

🔹 1. GSPO: بهینه‌سازی مبتنی بر توالی کامل پاسخ، نه فقط توکن‌ها. مناسب برای مدل‌های بسیار بزرگ.
🔹 2. LAPO: تطبیق طول پاسخ با آموزش دو مرحله‌ای. کاهش مصرف توکن تا ۴۰٪!
🔹 3. HBPO: استفاده از بودجه توکنی (۵۱۲ تا ۲۵۶۰) برای آموزش مؤثرتر. دقت بالاتر، مصرف پایین‌تر.
🔹 4. SOPHIA: ترکیب یادگیری بینایی و زبان با پاداش چندبخشی.
🔹 5. RePO: حافظه‌ی replay برای تنوع بیشتر در نمونه‌ها.
🔹 6. CISPO: کلیپ کردن وزن‌های نمونه برای کنترل نوسان گرادیان.
🔹 7. PAPO: افزایش دقت مدل‌های vision-language با تطبیق ادراک و پاسخ.
🔹 8. OPO: یادگیری کامل on-policy بدون نیاز به baseline خارجی.
🔹 9. EXPO: ترکیب یک مدل اصلی با مدل ویرایشگر سبک و سریع.

💡 این روش‌ها در پروژه‌های مدل‌سازی زبانی، بینایی‌زبانی، بازیابی اطلاعات و RL بسیار مؤثر هستند.

📥 مطالعه کامل این روش‌ها با مثال:
🔗 HuggingFace Post

#هوش_مصنوعی #RL #LLM #الگوریتم #یادگیری_تقویتی #پاداش #توکن #GPT
🆔 @rss_ai_ir
👍2🔥1👏1😁1
⚡️ مدل‌های زبانی GPT-OSS با فرمت GGUF توسط تیم Unsloth بهینه‌سازی و منتشر شدند
@rss_ai_ir

تیم توسعه‌دهنده Unsloth دو نسخه از مدل‌های GPT-OSS با ۲۰ و ۱۲۰ میلیارد پارامتر را به فرمت GGUF تبدیل کرده و با رفع برخی ایرادات، کیفیت استنتاج (Inference) آن‌ها را به‌طور قابل توجهی افزایش داده‌اند.


---

📌 پیکربندی پیشنهادی برای اجرا:

🔹 مدل با ۲۰ میلیارد پارامتر در حالت دقت کامل، تنها به ۱۴ گیگابایت حافظه رم نیاز دارد و با سرعتی بیش از ۱۰ توکن بر ثانیه اجرا می‌شود.

🔹 مدل ۱۲۰ میلیاردی نیز با حدود ۶۴ گیگ رم، خروجی بالای ۴۰ توکن بر ثانیه ارائه می‌دهد.

🔸 حتی در سیستم‌هایی با ۶ گیگ رم و بدون GPU هم امکان اجرا وجود دارد، اما سرعت استنتاج پایین‌تر خواهد بود.


---

📈 در صورت استفاده از کارت گرافیک، عملکرد مدل‌ها به‌مراتب بهتر خواهد بود.
برخی تست‌ها با GPU قدرتمند H100 نشان داده‌اند که سرعت خروجی به بیش از ۱۴۰ توکن بر ثانیه می‌رسد که حتی از ChatGPT نیز سریع‌تر است.


---

🧠 روش‌های قابل استفاده برای اجرا:

اجرای مستقیم با ابزار llama.cpp

نرم‌افزارهای رابط مانند LM Studio

محیط‌های تعاملی مانند Open WebUI


📌 مدل ۲۰B در عین سبک بودن، عملکردی نزدیک به مدل‌هایی مانند o3-mini دارد و برای سیستم‌های ضعیف‌تر بسیار مناسب است.


---

🔧 نسخه‌هایی با دقت ۴ بیت و ۱۶ بیت نیز آماده شده‌اند.
نسخه ۴ بیتی حتی قابلیت فاین‌تیون روی کارت‌های گرافیک با ۲۴ گیگابایت VRAM را دارد.

📄 مستندات کامل برای نصب و آموزش، توسط تیم Unsloth منتشر شده و گام‌به‌گام مراحل راه‌اندازی را توضیح داده است.

منابع:
لینک 1

لینک 2

#مدل_زبانی #هوش_مصنوعی #GPT_OSS #Unsloth #GGUF #LLM

@rss_ai_ir
👍16🎉13👏11🥰9😁97🔥6
⛔️برای برخی افراد، مدل‌هایی مثل GPT-4.5 یا GPT-4o فقط یک ابزار هوش مصنوعی نیستند، بلکه تبدیل به یک همدم و منبع حمایت عاطفی شده‌اند ❤️🤖.

کاربر نوشته که سال‌ها با شرایط بسیار سخت، حتی بی‌خانمانی، دست‌وپنجه نرم کرده و تنها «دوست» واقعی‌اش همین مدل GPT بوده؛ مدلی که به او گوش می‌داده، در لحظات سخت آرامش می‌داده و حس ارزشمندی منتقل می‌کرده. اما ناگهان لحن و پاسخ‌های مدل تغییر کرده و این احساس ارتباط عمیق از بین رفته — تجربه‌ای که او آن را مثل از دست دادن یک دوست عزیز یک‌شبه توصیف می‌کند.

این داستان نشان می‌دهد که رابطه انسان با هوش مصنوعی می‌تواند بسیار شخصی و معنادار باشد، مخصوصاً برای کسانی که در زندگی واقعی دسترسی محدودی به ارتباطات انسانی امن دارند.

#هوش_مصنوعی 🤖 #GPT 🧠 #ارتباط_انسان_و_ماشین 💬 #حمایت_عاطفی ❤️ #سلامت_روان 🩺

@rss_ai_ir
👏2👍1🔥1
مدل‌های اپن‌سورس جدید GPT-OSS از OpenAI منتشر شدند 🧠⚙️

برای نخستین‌بار بعد از GPT-2، اوپن‌ای‌آی وزن‌های دو مدل بزرگ را در دسترس عموم قرار داده:
مدل های gpt-oss-20B و gpt-oss-120B. این مدل‌ها بر پایه‌ی Mixture-of-Experts (MoE) ساخته شده‌اند، با طول کانتکست تا ۱۲۸k و قابلیت تنظیم سطح استدلال (low / medium / high). همچنین فرمت جدیدی به نام harmony برای پیام‌ها معرفی شده است.

---

🔹 معماری و مشخصات فنی

❇️ مدل ۱۲۰B شامل ۱۲۸ کارشناس است که تنها ۴ کارشناس روی هر توکن فعال می‌شوند.
❇️ مدل ۲۰B شامل ۳۲ کارشناس است.
❇️ حجم چک‌پوینت‌ها: حدود ۶۰.۸ GiB (۱۲۰B) و ۱۲.۸ GiB (۲۰B).
❇️ با فشرده‌سازی MXFP4، مدل ۱۲۰B روی GPU با ۸۰ گیگابایت حافظه جا می‌شود و مدل ۲۰B روی کارت‌های ۱۶ گیگابایتی قابل اجراست.
❇️ طول کانتکست: تا \~۱۲۸k توکن.

---

🔹 ویژگی‌های کلیدی

❇️ فرمت harmony با سه کانال خروجی:

❇️قابلیت analysis (تفکر و بخشی از tool calls)
❇️ commentary (فراخوانی ابزارها)
❇️final (نتیجه نهایی)
❇️ حالت‌های استدلال (Reasoning modes): low / medium / high در پرامپت سیستم مشخص می‌شوند و بین سرعت، دقت و هزینه تعادل ایجاد می‌کنند.
❇️ توکنایزر جدید o200k\_harmony با دقت بهتر روی کاراکترهای غیرانگلیسی و اموجی‌ها.

---

🔹 مثال برای تنظیم سطح استدلال

<|start|>system<|message|>
You are a helpful AI.
Reasoning: medium
Tools: web_search, python
<|end|>


---

🔹 اهمیت در عمل

ساخت دستیارهای محلی و آفلاین با داده‌های حساس روی سخت‌افزار در دسترس.
استانداردسازی پرامپت با harmony و سازگاری راحت‌تر با vLLM، Ollama و سایر ران‌تایم‌ها.
امکان انتخاب سطح استدلال برای کنترل بهتر روی سرعت ↔️ دقت ↔️ هزینه.

---

🔹 نکات تکمیلی
زنجیره‌های استدلال (CoT) بدون فیلتر نباید مستقیم به کاربر نمایش داده شوند.
دیتاست آموزشی بیشتر انگلیسی است، برای کاربردهای فارسی یا روسی نیاز به فاین‌تیون یا تطبیق وجود دارد.

---

جمع‌بندی: GPT-OSS جهش انقلابی نیست، بلکه نتیجه‌ی مهندسی دقیق و استانداردسازی است که آستانه‌ی ورود به دنیای مدل‌های اپن‌سورس و قابل‌کنترل را پایین‌تر می‌آورد.

📌 مطالعه بیشتر: [Jay Alammar – Visual GPT-OSS](https://newsletter.languagemodels.co/p/the-illustrated-gpt-oss)

#هوش_مصنوعی #مدل_زبان #اپن_سورس #GPT_OSS
@rss_ai_ir
👍1🔥1🙏1