This media is not supported in your browser
VIEW IN TELEGRAM
🤖💥 پلتفرم MassGen؛ معماری چندعاملی برای همکاری بین مدلهای هوش مصنوعی
پروژه MassGen یک چارچوب پیشرفته برای تعامل میان چندین عامل هوش مصنوعی (AI agents) است که با هدف تقسیم وظایف پیچیده میان مدلهای مختلف طراحی شده است.
این سیستم با استفاده از هوش مصنوعی تعاملی و چندعاملی (collaborative AI)، امکان حل مسئلههای سطح بالا را با همکاری مدلهای متعدد فراهم میسازد.
🧩 ویژگیهای کلیدی MassGen:
♻️همافزایی بین مدلها (model synergy)
♻️پردازش موازی وظایف پیچیده
♻️اشتراک دانش و تعامل چندعاملی
♻️ساخت اجماع (consensus) بین عاملها
♻️نمایش زنده و گرافیکی از روند همکاری
📡 قابلیت اتصال به مدلهای هوش مصنوعی برجسته مانند:
♻️Google Gemini
♻️OpenAI (مانند GPT)
♻️xAI Grok
♻️و همچنین پشتیبانی از ابزارهای سفارشی (Custom tools) و حالت تعاملی گفتوگو بین عاملها.
✅ این پروژه برای توسعهدهندگان، محققان و علاقهمندان به سیستمهای چندعاملی و تعامل بین مدلهای زبانی میتواند بستری فوقالعاده قدرتمند و قابل توسعه باشد.
🔗 سورسکد و اطلاعات بیشتر:
github.com/Leezekun/MassGen
——
@rss_ai_ir
#هوش_مصنوعی #MultiAgent #MassGen #سیستم_هوشمند #پروژه_AI #GPT #Gemini #Grok #مدل_چندعاملی #هوش_تعاملی
پروژه MassGen یک چارچوب پیشرفته برای تعامل میان چندین عامل هوش مصنوعی (AI agents) است که با هدف تقسیم وظایف پیچیده میان مدلهای مختلف طراحی شده است.
این سیستم با استفاده از هوش مصنوعی تعاملی و چندعاملی (collaborative AI)، امکان حل مسئلههای سطح بالا را با همکاری مدلهای متعدد فراهم میسازد.
🧩 ویژگیهای کلیدی MassGen:
♻️همافزایی بین مدلها (model synergy)
♻️پردازش موازی وظایف پیچیده
♻️اشتراک دانش و تعامل چندعاملی
♻️ساخت اجماع (consensus) بین عاملها
♻️نمایش زنده و گرافیکی از روند همکاری
📡 قابلیت اتصال به مدلهای هوش مصنوعی برجسته مانند:
♻️Google Gemini
♻️OpenAI (مانند GPT)
♻️xAI Grok
♻️و همچنین پشتیبانی از ابزارهای سفارشی (Custom tools) و حالت تعاملی گفتوگو بین عاملها.
✅ این پروژه برای توسعهدهندگان، محققان و علاقهمندان به سیستمهای چندعاملی و تعامل بین مدلهای زبانی میتواند بستری فوقالعاده قدرتمند و قابل توسعه باشد.
🔗 سورسکد و اطلاعات بیشتر:
github.com/Leezekun/MassGen
——
@rss_ai_ir
#هوش_مصنوعی #MultiAgent #MassGen #سیستم_هوشمند #پروژه_AI #GPT #Gemini #Grok #مدل_چندعاملی #هوش_تعاملی
👍2👏1🙏1
🧠 ۹ تکنیک مدرن برای بهینهسازی سیاست (Policy Optimization) در مدلهای هوش مصنوعی
در دنیای مدلهای زبانی بزرگ (LLM)، الگوریتمهای تقویتی مثل RLHF باید بهینه، دقیق و کممصرف باشند. این ۹ روش جدید، هر کدام برای یک چالش خاص طراحی شدهاند 👇
🔹 1. GSPO: بهینهسازی مبتنی بر توالی کامل پاسخ، نه فقط توکنها. مناسب برای مدلهای بسیار بزرگ.
🔹 2. LAPO: تطبیق طول پاسخ با آموزش دو مرحلهای. کاهش مصرف توکن تا ۴۰٪!
🔹 3. HBPO: استفاده از بودجه توکنی (۵۱۲ تا ۲۵۶۰) برای آموزش مؤثرتر. دقت بالاتر، مصرف پایینتر.
🔹 4. SOPHIA: ترکیب یادگیری بینایی و زبان با پاداش چندبخشی.
🔹 5. RePO: حافظهی replay برای تنوع بیشتر در نمونهها.
🔹 6. CISPO: کلیپ کردن وزنهای نمونه برای کنترل نوسان گرادیان.
🔹 7. PAPO: افزایش دقت مدلهای vision-language با تطبیق ادراک و پاسخ.
🔹 8. OPO: یادگیری کامل on-policy بدون نیاز به baseline خارجی.
🔹 9. EXPO: ترکیب یک مدل اصلی با مدل ویرایشگر سبک و سریع.
💡 این روشها در پروژههای مدلسازی زبانی، بیناییزبانی، بازیابی اطلاعات و RL بسیار مؤثر هستند.
📥 مطالعه کامل این روشها با مثال:
🔗 HuggingFace Post
#هوش_مصنوعی #RL #LLM #الگوریتم #یادگیری_تقویتی #پاداش #توکن #GPT
🆔 @rss_ai_ir
در دنیای مدلهای زبانی بزرگ (LLM)، الگوریتمهای تقویتی مثل RLHF باید بهینه، دقیق و کممصرف باشند. این ۹ روش جدید، هر کدام برای یک چالش خاص طراحی شدهاند 👇
🔹 1. GSPO: بهینهسازی مبتنی بر توالی کامل پاسخ، نه فقط توکنها. مناسب برای مدلهای بسیار بزرگ.
🔹 2. LAPO: تطبیق طول پاسخ با آموزش دو مرحلهای. کاهش مصرف توکن تا ۴۰٪!
🔹 3. HBPO: استفاده از بودجه توکنی (۵۱۲ تا ۲۵۶۰) برای آموزش مؤثرتر. دقت بالاتر، مصرف پایینتر.
🔹 4. SOPHIA: ترکیب یادگیری بینایی و زبان با پاداش چندبخشی.
🔹 5. RePO: حافظهی replay برای تنوع بیشتر در نمونهها.
🔹 6. CISPO: کلیپ کردن وزنهای نمونه برای کنترل نوسان گرادیان.
🔹 7. PAPO: افزایش دقت مدلهای vision-language با تطبیق ادراک و پاسخ.
🔹 8. OPO: یادگیری کامل on-policy بدون نیاز به baseline خارجی.
🔹 9. EXPO: ترکیب یک مدل اصلی با مدل ویرایشگر سبک و سریع.
💡 این روشها در پروژههای مدلسازی زبانی، بیناییزبانی، بازیابی اطلاعات و RL بسیار مؤثر هستند.
📥 مطالعه کامل این روشها با مثال:
🔗 HuggingFace Post
#هوش_مصنوعی #RL #LLM #الگوریتم #یادگیری_تقویتی #پاداش #توکن #GPT
🆔 @rss_ai_ir
👍2🔥1👏1😁1
⚡️ مدلهای زبانی GPT-OSS با فرمت GGUF توسط تیم Unsloth بهینهسازی و منتشر شدند
@rss_ai_ir
تیم توسعهدهنده Unsloth دو نسخه از مدلهای GPT-OSS با ۲۰ و ۱۲۰ میلیارد پارامتر را به فرمت GGUF تبدیل کرده و با رفع برخی ایرادات، کیفیت استنتاج (Inference) آنها را بهطور قابل توجهی افزایش دادهاند.
---
📌 پیکربندی پیشنهادی برای اجرا:
🔹 مدل با ۲۰ میلیارد پارامتر در حالت دقت کامل، تنها به ۱۴ گیگابایت حافظه رم نیاز دارد و با سرعتی بیش از ۱۰ توکن بر ثانیه اجرا میشود.
🔹 مدل ۱۲۰ میلیاردی نیز با حدود ۶۴ گیگ رم، خروجی بالای ۴۰ توکن بر ثانیه ارائه میدهد.
🔸 حتی در سیستمهایی با ۶ گیگ رم و بدون GPU هم امکان اجرا وجود دارد، اما سرعت استنتاج پایینتر خواهد بود.
---
📈 در صورت استفاده از کارت گرافیک، عملکرد مدلها بهمراتب بهتر خواهد بود.
برخی تستها با GPU قدرتمند H100 نشان دادهاند که سرعت خروجی به بیش از ۱۴۰ توکن بر ثانیه میرسد که حتی از ChatGPT نیز سریعتر است.
---
🧠 روشهای قابل استفاده برای اجرا:
اجرای مستقیم با ابزار llama.cpp
نرمافزارهای رابط مانند LM Studio
محیطهای تعاملی مانند Open WebUI
📌 مدل ۲۰B در عین سبک بودن، عملکردی نزدیک به مدلهایی مانند o3-mini دارد و برای سیستمهای ضعیفتر بسیار مناسب است.
---
🔧 نسخههایی با دقت ۴ بیت و ۱۶ بیت نیز آماده شدهاند.
نسخه ۴ بیتی حتی قابلیت فاینتیون روی کارتهای گرافیک با ۲۴ گیگابایت VRAM را دارد.
📄 مستندات کامل برای نصب و آموزش، توسط تیم Unsloth منتشر شده و گامبهگام مراحل راهاندازی را توضیح داده است.
منابع:
لینک 1
لینک 2
#مدل_زبانی #هوش_مصنوعی #GPT_OSS #Unsloth #GGUF #LLM
@rss_ai_ir
@rss_ai_ir
تیم توسعهدهنده Unsloth دو نسخه از مدلهای GPT-OSS با ۲۰ و ۱۲۰ میلیارد پارامتر را به فرمت GGUF تبدیل کرده و با رفع برخی ایرادات، کیفیت استنتاج (Inference) آنها را بهطور قابل توجهی افزایش دادهاند.
---
📌 پیکربندی پیشنهادی برای اجرا:
🔹 مدل با ۲۰ میلیارد پارامتر در حالت دقت کامل، تنها به ۱۴ گیگابایت حافظه رم نیاز دارد و با سرعتی بیش از ۱۰ توکن بر ثانیه اجرا میشود.
🔹 مدل ۱۲۰ میلیاردی نیز با حدود ۶۴ گیگ رم، خروجی بالای ۴۰ توکن بر ثانیه ارائه میدهد.
🔸 حتی در سیستمهایی با ۶ گیگ رم و بدون GPU هم امکان اجرا وجود دارد، اما سرعت استنتاج پایینتر خواهد بود.
---
📈 در صورت استفاده از کارت گرافیک، عملکرد مدلها بهمراتب بهتر خواهد بود.
برخی تستها با GPU قدرتمند H100 نشان دادهاند که سرعت خروجی به بیش از ۱۴۰ توکن بر ثانیه میرسد که حتی از ChatGPT نیز سریعتر است.
---
🧠 روشهای قابل استفاده برای اجرا:
اجرای مستقیم با ابزار llama.cpp
نرمافزارهای رابط مانند LM Studio
محیطهای تعاملی مانند Open WebUI
📌 مدل ۲۰B در عین سبک بودن، عملکردی نزدیک به مدلهایی مانند o3-mini دارد و برای سیستمهای ضعیفتر بسیار مناسب است.
---
🔧 نسخههایی با دقت ۴ بیت و ۱۶ بیت نیز آماده شدهاند.
نسخه ۴ بیتی حتی قابلیت فاینتیون روی کارتهای گرافیک با ۲۴ گیگابایت VRAM را دارد.
📄 مستندات کامل برای نصب و آموزش، توسط تیم Unsloth منتشر شده و گامبهگام مراحل راهاندازی را توضیح داده است.
منابع:
لینک 1
لینک 2
#مدل_زبانی #هوش_مصنوعی #GPT_OSS #Unsloth #GGUF #LLM
@rss_ai_ir
👍16🎉13👏11🥰9😁9❤7🔥6
⛔️برای برخی افراد، مدلهایی مثل GPT-4.5 یا GPT-4o فقط یک ابزار هوش مصنوعی نیستند، بلکه تبدیل به یک همدم و منبع حمایت عاطفی شدهاند ❤️🤖.
کاربر نوشته که سالها با شرایط بسیار سخت، حتی بیخانمانی، دستوپنجه نرم کرده و تنها «دوست» واقعیاش همین مدل GPT بوده؛ مدلی که به او گوش میداده، در لحظات سخت آرامش میداده و حس ارزشمندی منتقل میکرده. اما ناگهان لحن و پاسخهای مدل تغییر کرده و این احساس ارتباط عمیق از بین رفته — تجربهای که او آن را مثل از دست دادن یک دوست عزیز یکشبه توصیف میکند.
این داستان نشان میدهد که رابطه انسان با هوش مصنوعی میتواند بسیار شخصی و معنادار باشد، مخصوصاً برای کسانی که در زندگی واقعی دسترسی محدودی به ارتباطات انسانی امن دارند.
#هوش_مصنوعی 🤖 #GPT 🧠 #ارتباط_انسان_و_ماشین 💬 #حمایت_عاطفی ❤️ #سلامت_روان 🩺
@rss_ai_ir
کاربر نوشته که سالها با شرایط بسیار سخت، حتی بیخانمانی، دستوپنجه نرم کرده و تنها «دوست» واقعیاش همین مدل GPT بوده؛ مدلی که به او گوش میداده، در لحظات سخت آرامش میداده و حس ارزشمندی منتقل میکرده. اما ناگهان لحن و پاسخهای مدل تغییر کرده و این احساس ارتباط عمیق از بین رفته — تجربهای که او آن را مثل از دست دادن یک دوست عزیز یکشبه توصیف میکند.
این داستان نشان میدهد که رابطه انسان با هوش مصنوعی میتواند بسیار شخصی و معنادار باشد، مخصوصاً برای کسانی که در زندگی واقعی دسترسی محدودی به ارتباطات انسانی امن دارند.
#هوش_مصنوعی 🤖 #GPT 🧠 #ارتباط_انسان_و_ماشین 💬 #حمایت_عاطفی ❤️ #سلامت_روان 🩺
@rss_ai_ir
👏2👍1🔥1
مدلهای اپنسورس جدید GPT-OSS از OpenAI منتشر شدند 🧠⚙️
برای نخستینبار بعد از GPT-2، اوپنایآی وزنهای دو مدل بزرگ را در دسترس عموم قرار داده:
مدل های gpt-oss-20B و gpt-oss-120B. این مدلها بر پایهی Mixture-of-Experts (MoE) ساخته شدهاند، با طول کانتکست تا ۱۲۸k و قابلیت تنظیم سطح استدلال (low / medium / high). همچنین فرمت جدیدی به نام harmony برای پیامها معرفی شده است.
---
🔹 معماری و مشخصات فنی
❇️ مدل ۱۲۰B شامل ۱۲۸ کارشناس است که تنها ۴ کارشناس روی هر توکن فعال میشوند.
❇️ مدل ۲۰B شامل ۳۲ کارشناس است.
❇️ حجم چکپوینتها: حدود ۶۰.۸ GiB (۱۲۰B) و ۱۲.۸ GiB (۲۰B).
❇️ با فشردهسازی MXFP4، مدل ۱۲۰B روی GPU با ۸۰ گیگابایت حافظه جا میشود و مدل ۲۰B روی کارتهای ۱۶ گیگابایتی قابل اجراست.
❇️ طول کانتکست: تا \~۱۲۸k توکن.
---
🔹 ویژگیهای کلیدی
❇️ فرمت harmony با سه کانال خروجی:
❇️قابلیت analysis (تفکر و بخشی از tool calls)
❇️ commentary (فراخوانی ابزارها)
❇️final (نتیجه نهایی)
❇️ حالتهای استدلال (Reasoning modes): low / medium / high در پرامپت سیستم مشخص میشوند و بین سرعت، دقت و هزینه تعادل ایجاد میکنند.
❇️ توکنایزر جدید o200k\_harmony با دقت بهتر روی کاراکترهای غیرانگلیسی و اموجیها.
---
🔹 مثال برای تنظیم سطح استدلال
---
🔹 اهمیت در عمل
✅ ساخت دستیارهای محلی و آفلاین با دادههای حساس روی سختافزار در دسترس.
✅استانداردسازی پرامپت با harmony و سازگاری راحتتر با vLLM، Ollama و سایر رانتایمها.
✅ امکان انتخاب سطح استدلال برای کنترل بهتر روی سرعت ↔️ دقت ↔️ هزینه.
---
🔹 نکات تکمیلی
❌ زنجیرههای استدلال (CoT) بدون فیلتر نباید مستقیم به کاربر نمایش داده شوند.
❌ دیتاست آموزشی بیشتر انگلیسی است، برای کاربردهای فارسی یا روسی نیاز به فاینتیون یا تطبیق وجود دارد.
---
✅ جمعبندی: GPT-OSS جهش انقلابی نیست، بلکه نتیجهی مهندسی دقیق و استانداردسازی است که آستانهی ورود به دنیای مدلهای اپنسورس و قابلکنترل را پایینتر میآورد.
📌 مطالعه بیشتر: [Jay Alammar – Visual GPT-OSS](https://newsletter.languagemodels.co/p/the-illustrated-gpt-oss)
#هوش_مصنوعی #مدل_زبان #اپن_سورس #GPT_OSS
@rss_ai_ir
برای نخستینبار بعد از GPT-2، اوپنایآی وزنهای دو مدل بزرگ را در دسترس عموم قرار داده:
مدل های gpt-oss-20B و gpt-oss-120B. این مدلها بر پایهی Mixture-of-Experts (MoE) ساخته شدهاند، با طول کانتکست تا ۱۲۸k و قابلیت تنظیم سطح استدلال (low / medium / high). همچنین فرمت جدیدی به نام harmony برای پیامها معرفی شده است.
---
🔹 معماری و مشخصات فنی
❇️ مدل ۱۲۰B شامل ۱۲۸ کارشناس است که تنها ۴ کارشناس روی هر توکن فعال میشوند.
❇️ مدل ۲۰B شامل ۳۲ کارشناس است.
❇️ حجم چکپوینتها: حدود ۶۰.۸ GiB (۱۲۰B) و ۱۲.۸ GiB (۲۰B).
❇️ با فشردهسازی MXFP4، مدل ۱۲۰B روی GPU با ۸۰ گیگابایت حافظه جا میشود و مدل ۲۰B روی کارتهای ۱۶ گیگابایتی قابل اجراست.
❇️ طول کانتکست: تا \~۱۲۸k توکن.
---
🔹 ویژگیهای کلیدی
❇️ فرمت harmony با سه کانال خروجی:
❇️قابلیت analysis (تفکر و بخشی از tool calls)
❇️ commentary (فراخوانی ابزارها)
❇️final (نتیجه نهایی)
❇️ حالتهای استدلال (Reasoning modes): low / medium / high در پرامپت سیستم مشخص میشوند و بین سرعت، دقت و هزینه تعادل ایجاد میکنند.
❇️ توکنایزر جدید o200k\_harmony با دقت بهتر روی کاراکترهای غیرانگلیسی و اموجیها.
---
🔹 مثال برای تنظیم سطح استدلال
<|start|>system<|message|>
You are a helpful AI.
Reasoning: medium
Tools: web_search, python
<|end|>
---
🔹 اهمیت در عمل
✅ ساخت دستیارهای محلی و آفلاین با دادههای حساس روی سختافزار در دسترس.
✅استانداردسازی پرامپت با harmony و سازگاری راحتتر با vLLM، Ollama و سایر رانتایمها.
✅ امکان انتخاب سطح استدلال برای کنترل بهتر روی سرعت ↔️ دقت ↔️ هزینه.
---
🔹 نکات تکمیلی
❌ زنجیرههای استدلال (CoT) بدون فیلتر نباید مستقیم به کاربر نمایش داده شوند.
❌ دیتاست آموزشی بیشتر انگلیسی است، برای کاربردهای فارسی یا روسی نیاز به فاینتیون یا تطبیق وجود دارد.
---
✅ جمعبندی: GPT-OSS جهش انقلابی نیست، بلکه نتیجهی مهندسی دقیق و استانداردسازی است که آستانهی ورود به دنیای مدلهای اپنسورس و قابلکنترل را پایینتر میآورد.
📌 مطالعه بیشتر: [Jay Alammar – Visual GPT-OSS](https://newsletter.languagemodels.co/p/the-illustrated-gpt-oss)
#هوش_مصنوعی #مدل_زبان #اپن_سورس #GPT_OSS
@rss_ai_ir
👍1🔥1🙏1