Media is too big
VIEW IN TELEGRAM
🤖 تحول هوش مصنوعی با عاملهای چندمرحلهای (Multi-Step Agents)
📺 بررسی عمیق در ویدیوی جدید یوتیوب
@rss_ai_ir | #AI #AGI #Agents
هوش مصنوعی دیگر فقط پاسخگو نیست؛ حالا برنامهریزی میکند، وظایف را میشکند، تصمیم میگیرد و یاد میگیرد!
در ویدیوی جدید، به بررسی یکی از مهمترین پیشرفتهای اخیر AI پرداخته میشود:
🧠 عاملهای چندمرحلهای (Multi-Step Agents) — سیستمهایی که میتوانند مسائل پیچیده را به گامهای کوچکتر تقسیم کرده، اجرا کنند و نتایج را تحلیل و بهینه کنند.
🎯 نکات کلیدی ویدیو:
🔹 تفاوت Agent با مدلهای ساده زبانی مثل GPT
🔹 توانایی تفکر چندمرحلهای و تعامل با محیط
🔹 چالشها: پیادهسازی، ارزیابی، حافظه، و ابزارهای جانبی
🔹 ارتباط با آینده AGI (هوش عمومی مصنوعی)
📌 این ویدیو برای کسانی که میخواهند آینده شغلی، تحقیقاتی یا توسعه خود را با عاملهای هوشمند گره بزنند، حیاتی است.
📽 تماشا کن:
🔗 YouTube - Multi-step AI Agents
🔗 لینک کتاب داخل فیلم
📡 دنبال کنید برای تحلیل تخصصی و منابع بیشتر:
@rss_ai_ir | #هوش_مصنوعی #LLM #Agent
📺 بررسی عمیق در ویدیوی جدید یوتیوب
@rss_ai_ir | #AI #AGI #Agents
هوش مصنوعی دیگر فقط پاسخگو نیست؛ حالا برنامهریزی میکند، وظایف را میشکند، تصمیم میگیرد و یاد میگیرد!
در ویدیوی جدید، به بررسی یکی از مهمترین پیشرفتهای اخیر AI پرداخته میشود:
🧠 عاملهای چندمرحلهای (Multi-Step Agents) — سیستمهایی که میتوانند مسائل پیچیده را به گامهای کوچکتر تقسیم کرده، اجرا کنند و نتایج را تحلیل و بهینه کنند.
🎯 نکات کلیدی ویدیو:
🔹 تفاوت Agent با مدلهای ساده زبانی مثل GPT
🔹 توانایی تفکر چندمرحلهای و تعامل با محیط
🔹 چالشها: پیادهسازی، ارزیابی، حافظه، و ابزارهای جانبی
🔹 ارتباط با آینده AGI (هوش عمومی مصنوعی)
📌 این ویدیو برای کسانی که میخواهند آینده شغلی، تحقیقاتی یا توسعه خود را با عاملهای هوشمند گره بزنند، حیاتی است.
📽 تماشا کن:
🔗 YouTube - Multi-step AI Agents
🔗 لینک کتاب داخل فیلم
📡 دنبال کنید برای تحلیل تخصصی و منابع بیشتر:
@rss_ai_ir | #هوش_مصنوعی #LLM #Agent
🔥2👍1🙏1
🚀 چطور AutoGLM-OS توانست از OpenAI و Anthropic جلو بزند؟
ایجاد یک عامل RL که بتواند بهطور مستقل محیط دسکتاپ را کنترل کند، بهنوعی جام مقدس در HCI به حساب میآید. اما GUIها برای انسانها طراحی شدهاند، نه ماشینها، و مقیاسپذیری RL هم همیشه با مشکلاتی مثل ناکارایی و ناپایداری مواجه بوده است.
🔹 تیم Z.ai با معرفی فریمورک COMPUTERRL توانست عامل AutoGLM-OS را بسازد که روی بِنچمارک OSWorld رکورد زد:
📊 ۴۸/۱٪ موفقیت – بالاتر از OpenAI CUA 03 (۴۲/۹٪)، UI-TARS-1.5 (۴۲/۵٪) و Claude 4.0 Sonnet (۳۰/۷٪).
📌 بنچمارک OSWorld چیست؟
یک بِنچمارک بزرگ با ۳۶۹ تسک روی Ubuntu، ویندوز و macOS.
اینجا هوش مصنوعی باید کارهای واقعی انجام دهد:
* کار با اپلیکیشنهای دسکتاپ و وب 🌐
* مدیریت فایلها 📂
* اجرای پروسسها ⚙️
هر تسک شرایط اولیه و اسکریپتهای ارزیابی استاندارد دارد تا نتایج قابل بازتولید باشند.
---
💡 سه نوآوری کلیدی که AutoGLM-OS را به SOTA رساند:
1️⃣ پارادایم جدید API-GUI
عامل میتواند بین تعامل GUI و فراخوانیهای API سوییچ کند. جایی که API سریعتر است از آن استفاده میشود، و در کارهای عمومی GUI فعال میشود.
📈 نتیجه ابلیشن: افزایش نرخ موفقیت از ۱۱/۲٪ (GUI-only) به ۲۶/۲٪ (API-GUI).
2️⃣ زیرساخت RL توزیعشده و مقیاسپذیر
* استفاده از qemu-in-docker برای VMهای سبک ☁️
* ارتباط بینگرهی با gRPC 🔗
* فریمورک کاملاً async به نام AgentRL ⚡️
این یعنی هزاران محیط موازی برای یادگیری آنلاین RL.
3️⃣ استراتژی آموزشی Entropulse
* رفع مشکل *entropy collapse*
* تناوب بین فازهای RL و SFT
* ایجاد دیتاست جدید از *trajectory*های موفق برای بهبود یادگیری اکتشافی
📈 پس از اولین فاز RL: ۴۲٪
📈 بعد از Entropulse: ۴۸/۱٪
---
📑 جزییات بیشتر: [Arxiv: 2508.14040](https://arxiv.org/pdf/2508.14040)
🌐 بِنچمارک: [OSWorld](https://os-world.github.io/)
@rss_ai_ir
#هوش_مصنوعی 🤖 #یادگیری_تقویتی #Agents #AutoGLM #OSWorld #Zai
ایجاد یک عامل RL که بتواند بهطور مستقل محیط دسکتاپ را کنترل کند، بهنوعی جام مقدس در HCI به حساب میآید. اما GUIها برای انسانها طراحی شدهاند، نه ماشینها، و مقیاسپذیری RL هم همیشه با مشکلاتی مثل ناکارایی و ناپایداری مواجه بوده است.
🔹 تیم Z.ai با معرفی فریمورک COMPUTERRL توانست عامل AutoGLM-OS را بسازد که روی بِنچمارک OSWorld رکورد زد:
📊 ۴۸/۱٪ موفقیت – بالاتر از OpenAI CUA 03 (۴۲/۹٪)، UI-TARS-1.5 (۴۲/۵٪) و Claude 4.0 Sonnet (۳۰/۷٪).
📌 بنچمارک OSWorld چیست؟
یک بِنچمارک بزرگ با ۳۶۹ تسک روی Ubuntu، ویندوز و macOS.
اینجا هوش مصنوعی باید کارهای واقعی انجام دهد:
* کار با اپلیکیشنهای دسکتاپ و وب 🌐
* مدیریت فایلها 📂
* اجرای پروسسها ⚙️
هر تسک شرایط اولیه و اسکریپتهای ارزیابی استاندارد دارد تا نتایج قابل بازتولید باشند.
---
💡 سه نوآوری کلیدی که AutoGLM-OS را به SOTA رساند:
1️⃣ پارادایم جدید API-GUI
عامل میتواند بین تعامل GUI و فراخوانیهای API سوییچ کند. جایی که API سریعتر است از آن استفاده میشود، و در کارهای عمومی GUI فعال میشود.
📈 نتیجه ابلیشن: افزایش نرخ موفقیت از ۱۱/۲٪ (GUI-only) به ۲۶/۲٪ (API-GUI).
2️⃣ زیرساخت RL توزیعشده و مقیاسپذیر
* استفاده از qemu-in-docker برای VMهای سبک ☁️
* ارتباط بینگرهی با gRPC 🔗
* فریمورک کاملاً async به نام AgentRL ⚡️
این یعنی هزاران محیط موازی برای یادگیری آنلاین RL.
3️⃣ استراتژی آموزشی Entropulse
* رفع مشکل *entropy collapse*
* تناوب بین فازهای RL و SFT
* ایجاد دیتاست جدید از *trajectory*های موفق برای بهبود یادگیری اکتشافی
📈 پس از اولین فاز RL: ۴۲٪
📈 بعد از Entropulse: ۴۸/۱٪
---
📑 جزییات بیشتر: [Arxiv: 2508.14040](https://arxiv.org/pdf/2508.14040)
🌐 بِنچمارک: [OSWorld](https://os-world.github.io/)
@rss_ai_ir
#هوش_مصنوعی 🤖 #یادگیری_تقویتی #Agents #AutoGLM #OSWorld #Zai
❤19👏19🥰18😁17🎉14🔥13👍12
🚀 معرفی Environments Hub؛ فروشگاه باز برای RL-Agents
🔹 شرکت Prime Intellect اولین پلتفرم باز برای ساخت و استفاده از محیطهای یادگیری تقویتی (RL Environments) را معرفی کرد.
🌍 محیط RL همان دنیای مجازیای است که قوانین و سیستم پاداش آن تعریف میشود تا عاملها در آن آموزش ببینند.
✍️ مشکل اصلی اینجاست: ساخت یک محیط واقعی و پیچیده برای آموزش، بسیار پرهزینه است. مثلاً برای آموزش یک عامل برنامهنویس نیاز به:
✳️محیط شبیهسازی شده IDE با کامپایلر و دیباگر
✳️تعریف دقیق Reward Function
✳️ابزارهای مانیتورینگ و پایپلاین آموزش
✳️مجموعه دادههای واقعی و Edge-caseهای متعدد
✳️چنین چیزی در آزمایشگاههای بزرگ میلیونها دلار هزینه دارد و در اوپنسورس تقریباً مشابهی وجود نداشت.
⚡ حالا Environments Hub این مشکل را حل میکند:
♻️اولین و تنها استور باز برای محیطهای آماده RL
♻️شامل محیطهایی برای آموزش عاملهای برنامهنویس، ریاضیدان، گیمر و بسیاری حوزههای دیگر
♻️کاهش چشمگیر هزینه و زمان توسعه RL
💡 آندری کارپاتی هم این حرکت را به شدت تحسین کرده و آن را یک تغییر بازی (Game Changer) در توسعه عاملها دانسته است.
🔗 خودتان ببینید: Environments Hub
#هوش_مصنوعی #RL #یادگیری_تقویتی #AI_industrial_news #Agents
@rss_ai_ir
🔹 شرکت Prime Intellect اولین پلتفرم باز برای ساخت و استفاده از محیطهای یادگیری تقویتی (RL Environments) را معرفی کرد.
🌍 محیط RL همان دنیای مجازیای است که قوانین و سیستم پاداش آن تعریف میشود تا عاملها در آن آموزش ببینند.
✍️ مشکل اصلی اینجاست: ساخت یک محیط واقعی و پیچیده برای آموزش، بسیار پرهزینه است. مثلاً برای آموزش یک عامل برنامهنویس نیاز به:
✳️محیط شبیهسازی شده IDE با کامپایلر و دیباگر
✳️تعریف دقیق Reward Function
✳️ابزارهای مانیتورینگ و پایپلاین آموزش
✳️مجموعه دادههای واقعی و Edge-caseهای متعدد
✳️چنین چیزی در آزمایشگاههای بزرگ میلیونها دلار هزینه دارد و در اوپنسورس تقریباً مشابهی وجود نداشت.
⚡ حالا Environments Hub این مشکل را حل میکند:
♻️اولین و تنها استور باز برای محیطهای آماده RL
♻️شامل محیطهایی برای آموزش عاملهای برنامهنویس، ریاضیدان، گیمر و بسیاری حوزههای دیگر
♻️کاهش چشمگیر هزینه و زمان توسعه RL
💡 آندری کارپاتی هم این حرکت را به شدت تحسین کرده و آن را یک تغییر بازی (Game Changer) در توسعه عاملها دانسته است.
🔗 خودتان ببینید: Environments Hub
#هوش_مصنوعی #RL #یادگیری_تقویتی #AI_industrial_news #Agents
@rss_ai_ir
😁10🔥6❤4🎉3👍1