➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👏1🙏1
🚨 ۳ روش اصلی Ensemble در یادگیری ماشین
1️⃣ روش بگینگ (Bagging)
✏️ چی میگه؟ خطای مدل رو، با ترکیب پیشبینی چند مدل کم میکنه.
❓ چه جوری؟ چند مدل رو روی بخشهای متفاوتی از داده آموزش میدی، نتیجهها رو میانگین میگیری یا رایگیری میکنی.
⬅️ مثالش؟ جنگل تصادفی خودمون!
✅ کِی به درد میخوره؟ وقتی مدل خطی جواب نمیده و یه مدل پایه غیرخطی و بدون دردسر میخوای.
➖➖➖➖➖➖
2️⃣ روش بوستینگ (Boosting)
✏️ چی میگه؟ اشتباهاتو یکییکی کاهش بده تا مدل هر بار بهتر بشه.
❓ چه جوری؟ هر مدل، سعی میکنه اشتباه قبلیا رو جبران کنه؛ مدلها پشتسر هم ساخته میشن.
⬅️ مثالش؟ Gradient Boosting (یا XGBoost که خیلیا عاشقشن!)
✅ کِی به درد میخوره؟ برای مدلسازی الگوهای پیچیدهتر و زمانی که میخوای تا میتونی خطا رو کم کنی.
➖➖➖➖➖➖
3️⃣ روش استکینگ (Stacking)
✏️ چی میگه؟ ترکیب چند مدل مختلف و ساخت یه مدل نهایی (Meta-Model) برای نتیجهگیری بهتر.
❓ چه جوری؟ نتایج مدلهای پایه رو به مدل نهایی میدی تا از ترکیبشون استفاده کنه.
⬅️ مثالش؟ مثلاً یه مدل خطی، خروجی چند مدل قویتر رو تجمیع کنه.
✅ کِی به درد میخوره؟ وقتی هیچ مدلی به تنهایی جوابگو نیست یا میخوای از نقطهقوت هر مدل به نفع خودت استفاده کنی.
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
1️⃣ روش بگینگ (Bagging)
✏️ چی میگه؟ خطای مدل رو، با ترکیب پیشبینی چند مدل کم میکنه.
❓ چه جوری؟ چند مدل رو روی بخشهای متفاوتی از داده آموزش میدی، نتیجهها رو میانگین میگیری یا رایگیری میکنی.
⬅️ مثالش؟ جنگل تصادفی خودمون!
✅ کِی به درد میخوره؟ وقتی مدل خطی جواب نمیده و یه مدل پایه غیرخطی و بدون دردسر میخوای.
➖➖➖➖➖➖
2️⃣ روش بوستینگ (Boosting)
✏️ چی میگه؟ اشتباهاتو یکییکی کاهش بده تا مدل هر بار بهتر بشه.
❓ چه جوری؟ هر مدل، سعی میکنه اشتباه قبلیا رو جبران کنه؛ مدلها پشتسر هم ساخته میشن.
⬅️ مثالش؟ Gradient Boosting (یا XGBoost که خیلیا عاشقشن!)
✅ کِی به درد میخوره؟ برای مدلسازی الگوهای پیچیدهتر و زمانی که میخوای تا میتونی خطا رو کم کنی.
➖➖➖➖➖➖
3️⃣ روش استکینگ (Stacking)
✏️ چی میگه؟ ترکیب چند مدل مختلف و ساخت یه مدل نهایی (Meta-Model) برای نتیجهگیری بهتر.
❓ چه جوری؟ نتایج مدلهای پایه رو به مدل نهایی میدی تا از ترکیبشون استفاده کنه.
⬅️ مثالش؟ مثلاً یه مدل خطی، خروجی چند مدل قویتر رو تجمیع کنه.
✅ کِی به درد میخوره؟ وقتی هیچ مدلی به تنهایی جوابگو نیست یا میخوای از نقطهقوت هر مدل به نفع خودت استفاده کنی.
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
❤1👏1🤔1
🕰 ۱۰ مدل برتر پیشبینی سریهای زمانی
1️⃣ مدل TCN
✏️ مدل کانولوشنی برای درک الگوهای بلندمدت در سریهای زمانی.
✔️ خوبیش اینه که: سریع، موازی و پایدار آموزش میبینه.
❌ بدیش اینه که: ساختارش برای بعضیا که با RNN کار کردن، ممکنه گیجکننده باشه.
💡 کاربرد: سیگنالهای پرنوسان، سریهای با حافظه طولانی، دادههای حسگر یا بازار مالی.
➖ ➖ ➖
2️⃣ مدل TS-Mixer
✏️ مدل سبک و سریع مبتنی بر شبکه عصبی MLP برای سریهای پیچیده.
✔️ خوبیش اینه که: سریع، قابل توسعه و مناسب دادههای سنگین و پرتراکم.
❌ بدیش اینه که: هنوز بیشتر در فاز تحقیقاتی استفاده میشه.
💡 کاربرد: دادههای چندمتغیره و پرتکرار مثل قیمت رمزارز، ترافیک شبکه یا دادههای صنعتی.
➖ ➖ ➖
3️⃣ مدل TimesNet
✏️ مدل عمیق برای یادگیری الگوهای چندلایه و بلندمدت زمانی.
✔️ خوبیش اینه که: برای پیشبینیهای بلندمدت با چند فصلپذیری عملکرد عالی داره.
❌ بدیش اینه که: هنوز کاربردهای تجاری زیادی براش منتشر نشده.
🔧 کاربرد: سریهای پیچیده مثل آبوهوا، مصرف انرژی یا تحلیل روند بلندمدت بازار.
➖ ➖ ➖
4️⃣ مدل N-BEATS
✏️ مدل یادگیری عمیق بدون فرض خاص روی ساختار سری زمانی.
✔️ خوبیش اینه که: انعطافپذیر و مستقل از ساختار خاصیه.
❌ بدیش اینه که: نیاز به داده زیاد داره و تفسیر نتایجش ساده نیست.
🔧 کاربرد: پیشبینی روند و فصلپذیری در سریهای بدون الگوی مشخص.
➖ ➖ ➖
5️⃣ مدل DeepAR / DeepVAR
✏️ مدل دنبالهای مبتنی بر RNN برای پیشبینی توزیعی
✔️ خوبیش اینه که: با تعداد زیادی سری مشابه خیلی خوب مقیاسپذیره.
❌ بدیش اینه که: تو درک وابستگیهای خیلی طولانی ممکنه ضعف داشته باشه.
💡 کاربرد: پیشبینی فروش در فروشگاههای مختلف یا عملکرد شعب مختلف یک سیستم.
➖ ➖ ➖
6️⃣ مدل Temporal Fusion Transformer
✏️ مدل attentionمحور برای تحلیل سریهای چندمتغیره پیچیده.
✔️ خوبیش اینه که: هم اطلاعات گذشته رو خوب میفهمه، هم وضعیت فعلی رو.
❌ بدیش اینه که: تنظیماتش پیچیدهست و دیتای زیاد میخواد.
💡 کاربرد: پیشبینیهای بلندمدت با ورودیهای متنوع مثل قیمت، دما، تقویم و رویداد.
➖ ➖ ➖
7️⃣ مدل Prophet
✏️ مدل جمعپذیر با توانایی تشخیص روند، فصلپذیری و مناسبتها.
✔️ خوبیش اینه که: استفادهش راحته و خودش فصلها و تعطیلات رو تشخیص میده.
❌ بدیش اینه که: تو نوسانات سریع یا جهشهای ناگهانی دقیق نیست.
💡 کاربرد: دادههای کسبوکار، تحلیل فروش، کمپینهای بازاریابی و گزارشهای فصلی.
➖ ➖ ➖
8️⃣ مدل Gradient Boosting با ویژگیهای lag
✏️ مدل درخت تصمیم با ویژگیهای مهندسیشده زمانی (مثل lag و rolling mean).
✔️ خوبیش اینه که: با الگوهای پیچیده و دادههای غیرخطی خوب کنار میاد.
❌ بدیش اینه که: باید خودت دستی ویژگیهای زمانی بسازی.
💡 کاربرد: سریهای چندمتغیره با متغیرهای خارجی مثل تبلیغات، قیمت یا شرایط آبوهوا.
➖ ➖ ➖
9️⃣ مدل Exponential Smoothing
✏️ مدل آماری برای سریهایی با روند یا فصلپذیری نرم.
✔️ خوبیش اینه که: سریع، ساده و قابل تفسیر توسط افراد غیرمتخصص هم هست.
❌ بدیش اینه که: توی دادههای پرنوسان یا با تغییرات شدید عملکرد ضعیفی داره.
💡 کاربرد: دادههای آرام و فصلی مثل مصرف انرژی یا تولید ماهانه کارخانهها.
➖ ➖ ➖
1️⃣ مدل ARIMA / SARIMA
✏️ مدل کلاسیک آماری برای سریهای خطی و فصلی.
✔️ خوبیش اینه که: توی دادههای پایدار و فصلی عالی کار میکنه.
❌ بدیش اینه که: برای دادههای غیرخطی یا وقتی متغیر بیرونی داریم، ضعف داره.
💡 کاربرد: پیشبینی فروش، دما، یا روندهای کوتاهمدت تکمتغیره.
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
1️⃣ مدل TCN
✏️ مدل کانولوشنی برای درک الگوهای بلندمدت در سریهای زمانی.
✔️ خوبیش اینه که: سریع، موازی و پایدار آموزش میبینه.
❌ بدیش اینه که: ساختارش برای بعضیا که با RNN کار کردن، ممکنه گیجکننده باشه.
💡 کاربرد: سیگنالهای پرنوسان، سریهای با حافظه طولانی، دادههای حسگر یا بازار مالی.
➖ ➖ ➖
2️⃣ مدل TS-Mixer
✏️ مدل سبک و سریع مبتنی بر شبکه عصبی MLP برای سریهای پیچیده.
✔️ خوبیش اینه که: سریع، قابل توسعه و مناسب دادههای سنگین و پرتراکم.
❌ بدیش اینه که: هنوز بیشتر در فاز تحقیقاتی استفاده میشه.
💡 کاربرد: دادههای چندمتغیره و پرتکرار مثل قیمت رمزارز، ترافیک شبکه یا دادههای صنعتی.
➖ ➖ ➖
3️⃣ مدل TimesNet
✏️ مدل عمیق برای یادگیری الگوهای چندلایه و بلندمدت زمانی.
✔️ خوبیش اینه که: برای پیشبینیهای بلندمدت با چند فصلپذیری عملکرد عالی داره.
❌ بدیش اینه که: هنوز کاربردهای تجاری زیادی براش منتشر نشده.
🔧 کاربرد: سریهای پیچیده مثل آبوهوا، مصرف انرژی یا تحلیل روند بلندمدت بازار.
➖ ➖ ➖
4️⃣ مدل N-BEATS
✏️ مدل یادگیری عمیق بدون فرض خاص روی ساختار سری زمانی.
✔️ خوبیش اینه که: انعطافپذیر و مستقل از ساختار خاصیه.
❌ بدیش اینه که: نیاز به داده زیاد داره و تفسیر نتایجش ساده نیست.
🔧 کاربرد: پیشبینی روند و فصلپذیری در سریهای بدون الگوی مشخص.
➖ ➖ ➖
5️⃣ مدل DeepAR / DeepVAR
✏️ مدل دنبالهای مبتنی بر RNN برای پیشبینی توزیعی
✔️ خوبیش اینه که: با تعداد زیادی سری مشابه خیلی خوب مقیاسپذیره.
❌ بدیش اینه که: تو درک وابستگیهای خیلی طولانی ممکنه ضعف داشته باشه.
💡 کاربرد: پیشبینی فروش در فروشگاههای مختلف یا عملکرد شعب مختلف یک سیستم.
➖ ➖ ➖
6️⃣ مدل Temporal Fusion Transformer
✏️ مدل attentionمحور برای تحلیل سریهای چندمتغیره پیچیده.
✔️ خوبیش اینه که: هم اطلاعات گذشته رو خوب میفهمه، هم وضعیت فعلی رو.
❌ بدیش اینه که: تنظیماتش پیچیدهست و دیتای زیاد میخواد.
💡 کاربرد: پیشبینیهای بلندمدت با ورودیهای متنوع مثل قیمت، دما، تقویم و رویداد.
➖ ➖ ➖
7️⃣ مدل Prophet
✏️ مدل جمعپذیر با توانایی تشخیص روند، فصلپذیری و مناسبتها.
✔️ خوبیش اینه که: استفادهش راحته و خودش فصلها و تعطیلات رو تشخیص میده.
❌ بدیش اینه که: تو نوسانات سریع یا جهشهای ناگهانی دقیق نیست.
💡 کاربرد: دادههای کسبوکار، تحلیل فروش، کمپینهای بازاریابی و گزارشهای فصلی.
➖ ➖ ➖
8️⃣ مدل Gradient Boosting با ویژگیهای lag
✏️ مدل درخت تصمیم با ویژگیهای مهندسیشده زمانی (مثل lag و rolling mean).
✔️ خوبیش اینه که: با الگوهای پیچیده و دادههای غیرخطی خوب کنار میاد.
❌ بدیش اینه که: باید خودت دستی ویژگیهای زمانی بسازی.
💡 کاربرد: سریهای چندمتغیره با متغیرهای خارجی مثل تبلیغات، قیمت یا شرایط آبوهوا.
➖ ➖ ➖
9️⃣ مدل Exponential Smoothing
✏️ مدل آماری برای سریهایی با روند یا فصلپذیری نرم.
✔️ خوبیش اینه که: سریع، ساده و قابل تفسیر توسط افراد غیرمتخصص هم هست.
❌ بدیش اینه که: توی دادههای پرنوسان یا با تغییرات شدید عملکرد ضعیفی داره.
💡 کاربرد: دادههای آرام و فصلی مثل مصرف انرژی یا تولید ماهانه کارخانهها.
➖ ➖ ➖
1️⃣ مدل ARIMA / SARIMA
✏️ مدل کلاسیک آماری برای سریهای خطی و فصلی.
✔️ خوبیش اینه که: توی دادههای پایدار و فصلی عالی کار میکنه.
❌ بدیش اینه که: برای دادههای غیرخطی یا وقتی متغیر بیرونی داریم، ضعف داره.
💡 کاربرد: پیشبینی فروش، دما، یا روندهای کوتاهمدت تکمتغیره.
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
❤1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
👩🏻💻 ریپوی Prompt Engineering Guide با بیش از ۵۶ هزار ستاره تو گیتهاب، یه مجموعه کامل و پرباره برای هر کسی که میخواد تو نوشتن پرامپتهای موثر برای هوش مصنوعی استاد بشه! چه تازهکار باشه چه حرفهای!
┌
├
└
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🙏1
Media is too big
VIEW IN TELEGRAM
👨🏻💻 یه ایجنت هوش مصنوعی توسعه دادم که توی چند ثانیه دهها مدل یادگیری ماشین رو میسازه. چون ساختن دهها مدل مختلف و پیدا کردن بهترینشون با روش دستی، همیشه کلی وقت ازم میگرفت، با این ایجنت کلی صرفهجویی تو زمان فرایند ساخت و تست مدلها کردم!
┌
└
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2👍1🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
🔖 پروژه پایانی دوره کارشناسی
✅ موضوع «تحلیل احساسات نظرات اسنپفود»
👩🏻💻 برای این پروژه، دیتاست 70000 تایی از نظرات کاربرای اسنپفود رو بررسی کردم. با الگوریتم XGBoost مدلی رو آموزش دادم که میتونه احساسات (مثبت یا منفی) رو تشخیص بده.
🖊 پردازش زبان طبیعی روی دادههای فارسی یه خورده پیچیدهتره، ولی همین چالش باعث شد کلی چیز جدید یاد بگیرم.
🖥 ابزارهای مورد استفاده: برای پیشپردازش دادهها از کتابخونه Hazm استفاده کردم و تونستم مدلی با دقت 84% بسازم. در آخر هم برای Deployment از فریمورک Flask استفاده کردم تا کار رو نهایی کنم.
⏪ کلیه کدها و مستندات پروژه رو توی گیتهابم گذاشتم. میتونین از لینک زیر بررسی کنین.👇
┌ 💡 Analysis of Snappfood Comments
└ 🐱 GitHub-Repos
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
✅ موضوع «تحلیل احساسات نظرات اسنپفود»
👩🏻💻 برای این پروژه، دیتاست 70000 تایی از نظرات کاربرای اسنپفود رو بررسی کردم. با الگوریتم XGBoost مدلی رو آموزش دادم که میتونه احساسات (مثبت یا منفی) رو تشخیص بده.
🖊 پردازش زبان طبیعی روی دادههای فارسی یه خورده پیچیدهتره، ولی همین چالش باعث شد کلی چیز جدید یاد بگیرم.
🖥 ابزارهای مورد استفاده: برای پیشپردازش دادهها از کتابخونه Hazm استفاده کردم و تونستم مدلی با دقت 84% بسازم. در آخر هم برای Deployment از فریمورک Flask استفاده کردم تا کار رو نهایی کنم.
⏪ کلیه کدها و مستندات پروژه رو توی گیتهابم گذاشتم. میتونین از لینک زیر بررسی کنین.👇
┌ 💡 Analysis of Snappfood Comments
└ 🐱 GitHub-Repos
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
👏2🙏2🤯1
📊 ارزیابی و تست مدلهای یادگیری ماشین
🔎 و مانیتورینگ حرفهای دادهها و مدلها
🏳️🌈 با ابزار Evidently
👨🏻💻 تست کردن مدلها و دادهها توی یادگیری ماشین از اهمیت بالایی برخورداره! اگه مدل و دادههاتون رو تست نکنیت، ممکنه توی محیط واقعی با مشکلات بزرگی مواجه بشین.
✅ برای جلوگیری از این مشکل و ارزیابی دقیق مدلتون، میتونین از ابزاری به نام Evidently استفاده کنین. Evidently یه ابزار اُپن سورس رایگانه که گزارشهای دقیق و کاملی برای بررسی مدلها و دادهها ارائه میده. این ابزار میتونه:
1️⃣ نقاط ضعف مدلهات رو نشون بده،
2️⃣ کیفیت و پایداری دادههات رو بررسی کنه،
3️⃣ و تغییرات در هدف و دادهها رو ردیابی کنه.
⏪ ابزار Evidently هم به صورت کتابخونه پایتون و هم به عنوان پلتفرم ابری موجوده و ابزاری قدرتمند برای مانیتورینگ مدلها و دادههاست.👇
┌ 💸 Evidently
├ 📄 Documentation
├ 😉 Youtube Channel
└ 🐱 GitHub-Repos
pip install evidently
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
🔎 و مانیتورینگ حرفهای دادهها و مدلها
🏳️🌈 با ابزار Evidently
👨🏻💻 تست کردن مدلها و دادهها توی یادگیری ماشین از اهمیت بالایی برخورداره! اگه مدل و دادههاتون رو تست نکنیت، ممکنه توی محیط واقعی با مشکلات بزرگی مواجه بشین.
✅ برای جلوگیری از این مشکل و ارزیابی دقیق مدلتون، میتونین از ابزاری به نام Evidently استفاده کنین. Evidently یه ابزار اُپن سورس رایگانه که گزارشهای دقیق و کاملی برای بررسی مدلها و دادهها ارائه میده. این ابزار میتونه:
1️⃣ نقاط ضعف مدلهات رو نشون بده،
2️⃣ کیفیت و پایداری دادههات رو بررسی کنه،
3️⃣ و تغییرات در هدف و دادهها رو ردیابی کنه.
⏪ ابزار Evidently هم به صورت کتابخونه پایتون و هم به عنوان پلتفرم ابری موجوده و ابزاری قدرتمند برای مانیتورینگ مدلها و دادههاست.👇
┌ 💸 Evidently
├ 📄 Documentation
├ 😉 Youtube Channel
└ 🐱 GitHub-Repos
pip install evidently
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
👍3🔥1
📂 ۸ تا ریپوی برتر گیتهاب
✅ برای یادگیری «ماشین لرنینگ»
🖥 ریپوی ML System Design Pattern
✏️ پترنهای تستشده برای ساخت سیستمهای ML مقیاسپذیر.
➖ ➖ ➖
🖥 ریپوی ML Projects
✏️ پروژههای کاربردی تو حوزه ML که با ابزارهای شناختهشدهای مثل scikit-learn ,TensorFlow ,PyTorch و OpenCV ساخته شدن.
➖ ➖ ➖
🖥 ریپوی MLOps Basics
✏️ برنامه مطالعاتی ۹ هفتهای برای تسلط بر مفاهیم MLOps با پیادهسازی عملی.
➖ ➖ ➖
🖥 ریپوی MLE & MLOps
✏️ یادگیری MLE و MLOps در 7 مرحله با طراحی، ساخت و استقرار یک سیستم دستهای ML.
➖ ➖ ➖
🖥 ریپوی ML Project
✏️ صفر تا صد ساخت و دیپلوی یه پروژه ML.
➖ ➖ ➖
🖥 ریپوی Made With ML
✏️ چطور یه اپلیکیشن ML رو طراحی، توسعه، دیپلوی و بعدش ارتقا بدی.
➖ ➖ ➖
🖥 ریپوی MLOps Zoomcamp
✏️ یادگیری مفاهیم تولید، دیپلوی و اجرای مدلهای ML.
➖ ➖ ➖
🖥 ریپوی Applied ML
✏️ تجربه واقعی کار با یادگیری ماشین؛ از تست مدل تا اجرا و زیرنظر گرفتنش.
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
✅ برای یادگیری «ماشین لرنینگ»
🖥 ریپوی ML System Design Pattern
✏️ پترنهای تستشده برای ساخت سیستمهای ML مقیاسپذیر.
➖ ➖ ➖
🖥 ریپوی ML Projects
✏️ پروژههای کاربردی تو حوزه ML که با ابزارهای شناختهشدهای مثل scikit-learn ,TensorFlow ,PyTorch و OpenCV ساخته شدن.
➖ ➖ ➖
🖥 ریپوی MLOps Basics
✏️ برنامه مطالعاتی ۹ هفتهای برای تسلط بر مفاهیم MLOps با پیادهسازی عملی.
➖ ➖ ➖
🖥 ریپوی MLE & MLOps
✏️ یادگیری MLE و MLOps در 7 مرحله با طراحی، ساخت و استقرار یک سیستم دستهای ML.
➖ ➖ ➖
🖥 ریپوی ML Project
✏️ صفر تا صد ساخت و دیپلوی یه پروژه ML.
➖ ➖ ➖
🖥 ریپوی Made With ML
✏️ چطور یه اپلیکیشن ML رو طراحی، توسعه، دیپلوی و بعدش ارتقا بدی.
➖ ➖ ➖
🖥 ریپوی MLOps Zoomcamp
✏️ یادگیری مفاهیم تولید، دیپلوی و اجرای مدلهای ML.
➖ ➖ ➖
🖥 ریپوی Applied ML
✏️ تجربه واقعی کار با یادگیری ماشین؛ از تست مدل تا اجرا و زیرنظر گرفتنش.
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
👍2🙏2🔥1
😎 با این کتابخونه، همیشه مدلهای یادگیری ماشینت زنده و آپدیت شدن!
👨🏻💻 اگه دنبال مدلی هستی که وسط کار با دیتاها، خودش رو آپدیت کنه و نیاز نباشه هر بار کل دیتاست رو از اول آموزش بدی، حتماً یه بار River رو امتحان کن!
◀️من خودم وقتی اولین بار ازش استفاده کردم، واقعاً فرقش رو با مدلهای سنتی فهمیدم. مثلاً توی پروژهای که دادهها لحظهبهلحظه آپدیت میشدن، بهجای اینکه هر بار کل مدل رو retrain کنم، با river راحت میتونستم هر نمونه جدید رو بفرستم تو مدل و همون موقع یاد بگیره.
🚨 و جالبیش اینه که فقط برای مدلهای ساده نیست؛ از KNN آنلاین گرفته تا درخت تصمیم و حتی سیستمهای توصیهگر رو هم پشتیبانی میکنه.
┌ 🏳️🌈 River
├ 🌎 Website
└ 🐱 GitHub-Repos
pip install river
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
👨🏻💻 اگه دنبال مدلی هستی که وسط کار با دیتاها، خودش رو آپدیت کنه و نیاز نباشه هر بار کل دیتاست رو از اول آموزش بدی، حتماً یه بار River رو امتحان کن!
◀️من خودم وقتی اولین بار ازش استفاده کردم، واقعاً فرقش رو با مدلهای سنتی فهمیدم. مثلاً توی پروژهای که دادهها لحظهبهلحظه آپدیت میشدن، بهجای اینکه هر بار کل مدل رو retrain کنم، با river راحت میتونستم هر نمونه جدید رو بفرستم تو مدل و همون موقع یاد بگیره.
🚨 و جالبیش اینه که فقط برای مدلهای ساده نیست؛ از KNN آنلاین گرفته تا درخت تصمیم و حتی سیستمهای توصیهگر رو هم پشتیبانی میکنه.
┌ 🏳️🌈 River
├ 🌎 Website
└ 🐱 GitHub-Repos
pip install river
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
👏2🙏2👍1
This media is not supported in your browser
VIEW IN TELEGRAM
💥 خبر فوقالعاده برای علاقهمندان به هوش مصنوعی!
🧠 سرویس هوش مصنوعی Manus AI حالا به همه کاربران روزانه اعتبار رایگان میده — بدون نیاز به پرداخت اولیه یا اشتراک پولی!
📌 با فقط یک ثبتنام ساده، 1000 اعتبار رایگان دائمی دریافت کن! این اعتبار بدون تاریخ انقضاست و برای انجام کارهای مختلف هوش مصنوعی قابل استفاده است.
---
🎯 چند نمونه از قابلیتهای Manus AI و هزینههای تقریبی هر Task:
📊 تحلیل داده و رسم نمودار حرفهای: فقط با 200 اعتبار
🌐 طراحی یک وبسایت ساده: تنها 360 اعتبار
📱 ساخت اپلیکیشن پیشرفته (موبایل/وب): تا 900 اعتبار
🧾 تولید کد در زبانهای مختلف برنامهنویسی
📚 خلاصهسازی مقالات یا استخراج نکات کلیدی
🌍 ترجمه حرفهای به زبانهای مختلف با حفظ دقت و سبک
🎨 تولید تصاویر با هوش مصنوعی (AI Image Generation)
🤖 ساخت بات یا ابزارهای تعاملی هوشمند
و دهها قابلیت دیگه در زمینهی برنامهنویسی، طراحی، دیتا ساینس، مارکتینگ و...
---
🆓 تنها محدودیت نسخه رایگان:
🔹 هر کاربر رایگان میتونه فقط یک Task در روز ارسال کنه.
(برای استفاده بیشتر، امکان ارتقا به نسخه حرفهای هم هست)
---
📲 قابل استفاده در همه پلتفرمها: 📱 Android | 🍏 iOS | 💻 Web
🔗 برای ثبتنام و دریافت اعتبار رایگان وارد سایت شوید:
🌐 manus.ai
---
📌 اگر به دنیای هوش مصنوعی علاقهمند هستی، حتماً این فرصت رو از دست نده!
📚
📢 کانال ما: @rss_ai_ir
#هوش_مصنوعی #ManusAI #AI_Tools #ابزار_هوش_مصنوعی #فناوری #تکنولوژی #خبر #دیتا_ساینس #برنامهنویسی #DataScience #MachineLearning #DeepLearning
🧠 سرویس هوش مصنوعی Manus AI حالا به همه کاربران روزانه اعتبار رایگان میده — بدون نیاز به پرداخت اولیه یا اشتراک پولی!
📌 با فقط یک ثبتنام ساده، 1000 اعتبار رایگان دائمی دریافت کن! این اعتبار بدون تاریخ انقضاست و برای انجام کارهای مختلف هوش مصنوعی قابل استفاده است.
---
🎯 چند نمونه از قابلیتهای Manus AI و هزینههای تقریبی هر Task:
📊 تحلیل داده و رسم نمودار حرفهای: فقط با 200 اعتبار
🌐 طراحی یک وبسایت ساده: تنها 360 اعتبار
📱 ساخت اپلیکیشن پیشرفته (موبایل/وب): تا 900 اعتبار
🧾 تولید کد در زبانهای مختلف برنامهنویسی
📚 خلاصهسازی مقالات یا استخراج نکات کلیدی
🌍 ترجمه حرفهای به زبانهای مختلف با حفظ دقت و سبک
🎨 تولید تصاویر با هوش مصنوعی (AI Image Generation)
🤖 ساخت بات یا ابزارهای تعاملی هوشمند
و دهها قابلیت دیگه در زمینهی برنامهنویسی، طراحی، دیتا ساینس، مارکتینگ و...
---
🆓 تنها محدودیت نسخه رایگان:
🔹 هر کاربر رایگان میتونه فقط یک Task در روز ارسال کنه.
(برای استفاده بیشتر، امکان ارتقا به نسخه حرفهای هم هست)
---
📲 قابل استفاده در همه پلتفرمها: 📱 Android | 🍏 iOS | 💻 Web
🔗 برای ثبتنام و دریافت اعتبار رایگان وارد سایت شوید:
🌐 manus.ai
---
📌 اگر به دنیای هوش مصنوعی علاقهمند هستی، حتماً این فرصت رو از دست نده!
📚
📢 کانال ما: @rss_ai_ir
#هوش_مصنوعی #ManusAI #AI_Tools #ابزار_هوش_مصنوعی #فناوری #تکنولوژی #خبر #دیتا_ساینس #برنامهنویسی #DataScience #MachineLearning #DeepLearning
❤2👍1👏1
💡 تبدیل هر مقاله ML به یه ریپازیتوری کامل کد!
👨🏻💻 با Paper2Code هر مقاله یادگیری ماشین رو میتونی مستقیم به یه پروژه عملی و ریپوی قابل اجرا تبدیل کنی، بدون دردسر!
✏️ پشت این کار، یه سیستم مولتیایجنت مبتنی بر LLM هست که هر عاملش یه وظیفه تخصصی داره:
1️⃣ برنامهریزی
2️⃣ تحلیل عمیق
3️⃣ تولید کد نهایی
┌ 🏳️🌈 Paper2Code
└ 🐱 GitHub-Repos
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
👨🏻💻 با Paper2Code هر مقاله یادگیری ماشین رو میتونی مستقیم به یه پروژه عملی و ریپوی قابل اجرا تبدیل کنی، بدون دردسر!
✏️ پشت این کار، یه سیستم مولتیایجنت مبتنی بر LLM هست که هر عاملش یه وظیفه تخصصی داره:
1️⃣ برنامهریزی
2️⃣ تحلیل عمیق
3️⃣ تولید کد نهایی
┌ 🏳️🌈 Paper2Code
└ 🐱 GitHub-Repos
🌐 #یادگیری_ماشین #MachineLearning
➖➖➖➖➖➖➖➖➖➖➖➖➖➖
💡 مهندس ML شوید :
💡 @rss_ai_ir
👍3🔥1🙏1
📉 آموزش مدل در یادگیری ماشین: تعادل بین Underfitting و Overfitting
در مسیر آموزش مدلهای یادگیری ماشین، همیشه باید دنبال یک «نقطه تعادل» بین دقت بالا و تعمیمپذیری مناسب باشیم. تصویر زیر بهخوبی سه وضعیت مختلف را نمایش میدهد:
---
🔵 مدل ضعیف و ساده Underfitting
وقتی مدل شما نتواند حتی روی دادههای آموزشی عملکرد خوبی داشته باشد، دچار Underfitting شدهاید.
📌 علائم:
* دقت پایین روی دادههای آموزش و تست
* کاهش خطا بسیار کند است
* منحنیهای خطای آموزش و اعتبارسنجی بسیار به هم نزدیکاند
🛠 راهکارها:
* استفاده از مدلهای پیچیدهتر (افزودن لایه در شبکه عصبی یا درختهای بیشتر در Random Forest)
* آموزش بیشتر (افزایش epochs)
* کاهش regularization (کاهش مقدار λ در L2 یا L1)
* اضافهکردن ویژگیهای جدید یا مهندسی بهتر ویژگیها (feature engineering)
---
🟠 مدل بیشازحد یادگرفته Overfitting
مدل بیشازحد خودش را با دادههای آموزشی تطبیق داده و قدرت تعمیم به دادههای جدید را از دست داده.
📌 علائم:
* خطای آموزش خیلی پایین، ولی خطای اعتبارسنجی بالا میرود
* شکاف زیاد بین منحنی Train و Validation
* عملکرد بد روی دادههای جدید یا واقعی
🛠 راهکارها:
* استفاده از تکنیکهای Regularization (مثل L1/L2، Dropout)
* کاهش پیچیدگی مدل
* افزایش داده با Data Augmentation
* استفاده از EarlyStopping
* استفاده از Cross-validation برای انتخاب مدل عمومیتر
---
🟢 — نقطه تعادل Best Fit
مدلی که هم روی دادههای آموزشی و هم اعتبارسنجی عملکرد خوبی دارد.
📌 ابزارهای تشخیص خودکار نقطه تعادل:
*ابزار EarlyStopping: توقف خودکار آموزش زمانی که خطای اعتبارسنجی کاهش نمییابد
* ابزار Learning Curve: رسم نمودار Train/Validation Loss برای پیدا کردن نقطه جدایی
* ابزار Cross-Validation: اعتبارسنجی با دادههای مختلف برای تشخیص تعمیم بهتر
---
📌 نکته نهایی:
دقت بالا بهتنهایی ملاک خوبی نیست. مدل خوب، مدلیست که بتواند روی دادههای جدید نیز عملکرد مطلوبی داشته باشد، نه فقط دادههایی که دیده.
🧠 با ما در مسیر حرفهای شدن در یادگیری ماشین همراه باشید!
#MachineLearning #Overfitting #Underfitting #هوش_مصنوعی
🎓 @rss_ai_ir| آموزشهای تخصصی و حرفهای هوش مصنوعی
در مسیر آموزش مدلهای یادگیری ماشین، همیشه باید دنبال یک «نقطه تعادل» بین دقت بالا و تعمیمپذیری مناسب باشیم. تصویر زیر بهخوبی سه وضعیت مختلف را نمایش میدهد:
---
🔵 مدل ضعیف و ساده Underfitting
وقتی مدل شما نتواند حتی روی دادههای آموزشی عملکرد خوبی داشته باشد، دچار Underfitting شدهاید.
📌 علائم:
* دقت پایین روی دادههای آموزش و تست
* کاهش خطا بسیار کند است
* منحنیهای خطای آموزش و اعتبارسنجی بسیار به هم نزدیکاند
🛠 راهکارها:
* استفاده از مدلهای پیچیدهتر (افزودن لایه در شبکه عصبی یا درختهای بیشتر در Random Forest)
* آموزش بیشتر (افزایش epochs)
* کاهش regularization (کاهش مقدار λ در L2 یا L1)
* اضافهکردن ویژگیهای جدید یا مهندسی بهتر ویژگیها (feature engineering)
---
🟠 مدل بیشازحد یادگرفته Overfitting
مدل بیشازحد خودش را با دادههای آموزشی تطبیق داده و قدرت تعمیم به دادههای جدید را از دست داده.
📌 علائم:
* خطای آموزش خیلی پایین، ولی خطای اعتبارسنجی بالا میرود
* شکاف زیاد بین منحنی Train و Validation
* عملکرد بد روی دادههای جدید یا واقعی
🛠 راهکارها:
* استفاده از تکنیکهای Regularization (مثل L1/L2، Dropout)
* کاهش پیچیدگی مدل
* افزایش داده با Data Augmentation
* استفاده از EarlyStopping
* استفاده از Cross-validation برای انتخاب مدل عمومیتر
---
🟢 — نقطه تعادل Best Fit
مدلی که هم روی دادههای آموزشی و هم اعتبارسنجی عملکرد خوبی دارد.
📌 ابزارهای تشخیص خودکار نقطه تعادل:
*ابزار EarlyStopping: توقف خودکار آموزش زمانی که خطای اعتبارسنجی کاهش نمییابد
* ابزار Learning Curve: رسم نمودار Train/Validation Loss برای پیدا کردن نقطه جدایی
* ابزار Cross-Validation: اعتبارسنجی با دادههای مختلف برای تشخیص تعمیم بهتر
---
📌 نکته نهایی:
دقت بالا بهتنهایی ملاک خوبی نیست. مدل خوب، مدلیست که بتواند روی دادههای جدید نیز عملکرد مطلوبی داشته باشد، نه فقط دادههایی که دیده.
🧠 با ما در مسیر حرفهای شدن در یادگیری ماشین همراه باشید!
#MachineLearning #Overfitting #Underfitting #هوش_مصنوعی
🎓 @rss_ai_ir| آموزشهای تخصصی و حرفهای هوش مصنوعی
👍2🔥2🙏1
🧠 چه زمانی باید از یادگیری چندوظیفهای (Multi-Task Learning) استفاده کنیم؟
@rss_ai_ir
---
یادگیری چندوظیفهای یا Multi-Task Learning (MTL) یکی از رویکردهای قدرتمند در یادگیری ماشین است که با آموزش همزمان چند وظیفه مرتبط، باعث بهبود دقت، تعمیمپذیری و کاهش overfitting میشود. اما آیا همیشه استفاده از آن منطقی است؟ نه! فقط در شرایط خاصی باید سراغ MTL رفت. 👇
---
✅ ۱. وجود چند هدف مرتبط (Correlated Tasks):
اگر چند خروجی یا برچسب در دادهها داری که بهصورت مفهومی یا آماری به هم وابستهاند (مثل تشخیص سن، جنسیت و حالت چهره)، یادگیری همزمان آنها میتونه باعث بهبود عملکرد همه وظایف بشه.
---
✅ ۲. کمبود داده برای برخی وظایف:
وقتی داده کافی برای یک وظیفه نداری ولی برای وظیفههای مرتبط داده موجوده، MTL به مدل کمک میکنه از دانش وظایف دیگر برای بهبود یادگیری استفاده کنه.
---
✅ ۳. جلوگیری از Overfitting در وظایف کوچک:
با اشتراکگذاری پارامترها بین وظایف، مدل از حافظه بیشازحد روی یک وظیفه خاص جلوگیری میکنه و بهتر تعمیم مییابد.
---
✅ ۴. اشتراک ساختار در ورودی یا ویژگیها:
در مسائلی که ویژگیهای ورودی بین چند وظیفه مشترک است (مثلاً یک تصویر ورودی برای چند برچسب مختلف)، پیادهسازی یک معماری MTL بسیار مؤثر است.
---
✅ ۵. نیاز به بهرهوری در منابع:
بهجای آموزش چند مدل جداگانه، یک مدل MTL میتونه چندین وظیفه را همزمان با منابع محاسباتی کمتر انجام دهد.
---
⚠️ چه زمانی استفاده نکنیم؟
🔸 زمانی که وظایف کاملاً بیربط یا متضادند
🔸 وقتی یکی از وظایف به دقت بسیار بالا نیاز دارد و باقی فقط مزاحمند
🔸 وقتی دادهها در فرمت و توزیع بسیار متفاوت هستند
---
📊 یادگیری چندوظیفهای میتونه یک استراتژی فوقالعاده باشه، اما فقط وقتی درست بهکار بره!
#یادگیری_چندوظیفهای #MultiTaskLearning #یادگیری_ماشین #هوش_مصنوعی #MachineLearning #DeepLearning #DataScience #MTL
📡 کانال ما رو دنبال کن:
🔗 https://yangx.top/rss_ai_ir
@rss_ai_ir
---
یادگیری چندوظیفهای یا Multi-Task Learning (MTL) یکی از رویکردهای قدرتمند در یادگیری ماشین است که با آموزش همزمان چند وظیفه مرتبط، باعث بهبود دقت، تعمیمپذیری و کاهش overfitting میشود. اما آیا همیشه استفاده از آن منطقی است؟ نه! فقط در شرایط خاصی باید سراغ MTL رفت. 👇
---
✅ ۱. وجود چند هدف مرتبط (Correlated Tasks):
اگر چند خروجی یا برچسب در دادهها داری که بهصورت مفهومی یا آماری به هم وابستهاند (مثل تشخیص سن، جنسیت و حالت چهره)، یادگیری همزمان آنها میتونه باعث بهبود عملکرد همه وظایف بشه.
---
✅ ۲. کمبود داده برای برخی وظایف:
وقتی داده کافی برای یک وظیفه نداری ولی برای وظیفههای مرتبط داده موجوده، MTL به مدل کمک میکنه از دانش وظایف دیگر برای بهبود یادگیری استفاده کنه.
---
✅ ۳. جلوگیری از Overfitting در وظایف کوچک:
با اشتراکگذاری پارامترها بین وظایف، مدل از حافظه بیشازحد روی یک وظیفه خاص جلوگیری میکنه و بهتر تعمیم مییابد.
---
✅ ۴. اشتراک ساختار در ورودی یا ویژگیها:
در مسائلی که ویژگیهای ورودی بین چند وظیفه مشترک است (مثلاً یک تصویر ورودی برای چند برچسب مختلف)، پیادهسازی یک معماری MTL بسیار مؤثر است.
---
✅ ۵. نیاز به بهرهوری در منابع:
بهجای آموزش چند مدل جداگانه، یک مدل MTL میتونه چندین وظیفه را همزمان با منابع محاسباتی کمتر انجام دهد.
---
⚠️ چه زمانی استفاده نکنیم؟
🔸 زمانی که وظایف کاملاً بیربط یا متضادند
🔸 وقتی یکی از وظایف به دقت بسیار بالا نیاز دارد و باقی فقط مزاحمند
🔸 وقتی دادهها در فرمت و توزیع بسیار متفاوت هستند
---
📊 یادگیری چندوظیفهای میتونه یک استراتژی فوقالعاده باشه، اما فقط وقتی درست بهکار بره!
#یادگیری_چندوظیفهای #MultiTaskLearning #یادگیری_ماشین #هوش_مصنوعی #MachineLearning #DeepLearning #DataScience #MTL
📡 کانال ما رو دنبال کن:
🔗 https://yangx.top/rss_ai_ir
👍2🔥1🙏1
🤖 مغز متفکر پشت ChatGPT و Gemini چیست؟ با RLHF آشنا شوید! 🧠
تا حالا از خودتان پرسیدهاید چطور مدلهای هوش مصنوعی مثل ChatGPT یا Gemini اینقدر خوب، مفید و "انسانگونه" صحبت میکنند؟ جواب در یک تکنیک انقلابی به نام RLHF نهفته است.
عبارت RLHF مخفف چیست؟
✨ R**einforcement **L**earning from **H**uman **F**eedback
✨یادگیری تقویتی از بازخورد انسانی
به زبان ساده، RLHF فرآیندی است که در آن انسانها به هوش مصنوعی "درس اخلاق و رفتار" میدهند!
---
🤔 این فرآیند چطور کار میکند؟
این جادو در سه مرحله اتفاق میافتد:
1️⃣ آموزش اولیه (کسب دانش خام):
یک مدل زبانی بزرگ (LLM) با حجم عظیمی از دادههای اینترنتی آموزش میبیند تا اصول زبان و دانش عمومی را یاد بگیرد. در این مرحله، مدل مثل یک دانشمند همهچیزدان اما کمی بیملاحظه است.
2️⃣ ساخت "وجدان" مصنوعی (مدل پاداش):
اینجاست که انسانها وارد میشوند!
* مدل برای یک سوال، چندین جواب مختلف تولید میکند.
* اپراتورهای انسانی این جوابها را از بهترین به بدترین رتبهبندی میکنند (مثلاً: جواب A عالیه، جواب B خوبه، جواب C بده).
* با هزاران نمونه از این رتبهبندیها، یک مدل جدید به نام "مدل پاداش" (Reward Model) ساخته میشود. این مدل یاد میگیرد که مثل یک انسان، پاسخهای خوب را از بد تشخیص دهد. در واقع، این مدل نقش "وجدان" یا "معیار سنجش" را برای هوش مصنوعی ایفا میکند.
3️⃣ تنظیم دقیق با یادگیری تقویتی (مرحله ادبآموزی):
* مدل اصلی حالا سعی میکند پاسخهایی تولید کند که از "مدل پاداش" امتیاز بالایی بگیرند.
* اگر پاسخی تولید کند که مفید، صادقانه و بیخطر باشد، پاداش میگیرد و آن مسیر را تقویت میکند.
* اگر پاسخ بدی بدهد، تنبیه (پاداش منفی) میشود و یاد میگیرد که دیگر آن اشتباه را تکرار نکند.
این چرخه بارها و بارها تکرار میشود تا مدل نهایی، یک دستیار هوشمند، همراستا با ارزشهای انسانی و ایمن باشد.
---
💡 چرا RLHF اینقدر مهم است؟
این تکنیک مدلهای هوش مصنوعی را از یک ماشین پاسخگوی ساده به یک همکار و دستیار قابل اعتماد تبدیل میکند که مفاهیم پیچیدهای مثل ادب، مفید بودن و ایمنی را درک میکند.
📚 برای مطالعه بیشتر و منابع فنی:
اگر به جزئیات فنی علاقهمندید، این منابع فوقالعاده هستند:
🔗 مقاله وبلاگ Hugging Face (توضیح عالی):
این مقاله یکی از بهترین منابع برای درک عمیق و تصویری RLHF است.
[https://huggingface.co/blog/rlhf]
👨💻 ریپازیتوری گیتهاب (کتابخانه TRL):
کتابخانه
[https://github.com/huggingface/trl]
@rss_ai_ir
#هوش_مصنوعی #یادگیری_ماشین #یادگیری_تقویتی #RLHF #ChatGPT #Gemini #تکنولوژی #AI #MachineLearning
تا حالا از خودتان پرسیدهاید چطور مدلهای هوش مصنوعی مثل ChatGPT یا Gemini اینقدر خوب، مفید و "انسانگونه" صحبت میکنند؟ جواب در یک تکنیک انقلابی به نام RLHF نهفته است.
عبارت RLHF مخفف چیست؟
✨ R**einforcement **L**earning from **H**uman **F**eedback
✨یادگیری تقویتی از بازخورد انسانی
به زبان ساده، RLHF فرآیندی است که در آن انسانها به هوش مصنوعی "درس اخلاق و رفتار" میدهند!
---
🤔 این فرآیند چطور کار میکند؟
این جادو در سه مرحله اتفاق میافتد:
1️⃣ آموزش اولیه (کسب دانش خام):
یک مدل زبانی بزرگ (LLM) با حجم عظیمی از دادههای اینترنتی آموزش میبیند تا اصول زبان و دانش عمومی را یاد بگیرد. در این مرحله، مدل مثل یک دانشمند همهچیزدان اما کمی بیملاحظه است.
2️⃣ ساخت "وجدان" مصنوعی (مدل پاداش):
اینجاست که انسانها وارد میشوند!
* مدل برای یک سوال، چندین جواب مختلف تولید میکند.
* اپراتورهای انسانی این جوابها را از بهترین به بدترین رتبهبندی میکنند (مثلاً: جواب A عالیه، جواب B خوبه، جواب C بده).
* با هزاران نمونه از این رتبهبندیها، یک مدل جدید به نام "مدل پاداش" (Reward Model) ساخته میشود. این مدل یاد میگیرد که مثل یک انسان، پاسخهای خوب را از بد تشخیص دهد. در واقع، این مدل نقش "وجدان" یا "معیار سنجش" را برای هوش مصنوعی ایفا میکند.
3️⃣ تنظیم دقیق با یادگیری تقویتی (مرحله ادبآموزی):
* مدل اصلی حالا سعی میکند پاسخهایی تولید کند که از "مدل پاداش" امتیاز بالایی بگیرند.
* اگر پاسخی تولید کند که مفید، صادقانه و بیخطر باشد، پاداش میگیرد و آن مسیر را تقویت میکند.
* اگر پاسخ بدی بدهد، تنبیه (پاداش منفی) میشود و یاد میگیرد که دیگر آن اشتباه را تکرار نکند.
این چرخه بارها و بارها تکرار میشود تا مدل نهایی، یک دستیار هوشمند، همراستا با ارزشهای انسانی و ایمن باشد.
---
💡 چرا RLHF اینقدر مهم است؟
این تکنیک مدلهای هوش مصنوعی را از یک ماشین پاسخگوی ساده به یک همکار و دستیار قابل اعتماد تبدیل میکند که مفاهیم پیچیدهای مثل ادب، مفید بودن و ایمنی را درک میکند.
📚 برای مطالعه بیشتر و منابع فنی:
اگر به جزئیات فنی علاقهمندید، این منابع فوقالعاده هستند:
🔗 مقاله وبلاگ Hugging Face (توضیح عالی):
این مقاله یکی از بهترین منابع برای درک عمیق و تصویری RLHF است.
[https://huggingface.co/blog/rlhf]
👨💻 ریپازیتوری گیتهاب (کتابخانه TRL):
کتابخانه
trl
از Hugging Face به شما اجازه میدهد تا مدلهای خود را با استفاده از RLHF آموزش دهید. نمونه کدها و مستندات کاملی دارد.[https://github.com/huggingface/trl]
@rss_ai_ir
#هوش_مصنوعی #یادگیری_ماشین #یادگیری_تقویتی #RLHF #ChatGPT #Gemini #تکنولوژی #AI #MachineLearning
❤20😁19👍18🥰16🎉14🔥13👏13🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠⚡️ کوانتایزیشن در شبکههای عصبی: انقلابی در هوش مصنوعی! ⚡️🧠
🔥 آیا میدانستید که میتوان حجم مدلهای هوش مصنوعی را تا 75% کاهش داد بدون از دست دادن دقت قابل توجه؟
🎯 کوانتایزیشن چیست؟
به جای استفاده از اعداد 32 بیتی (FP32)، از اعداد کمدقتتر مثل 8 بیت (INT8) یا حتی 4 بیت استفاده میکنیم!
📊 مزایای شگفتانگیز:
• 🚀 سرعت اجرا: 2-4 برابر سریعتر
• 💾 حافظه: کاهش چشمگیر مصرف RAM
• 🔋 انرژی: مصرف کمتر برای دستگاههای موبایل
• 💰 هزینه: کاهش هزینههای محاسباتی
⚙️ انواع کوانتایزیشن:
🔸 Post-training Quantization (PTQ)
🔸 Quantization-aware Training (QAT)
🔸 Dynamic Quantization
🎪 کاربردهای عملی:
📱 اجرای مدلهای بزرگ روی گوشی
🏭 استقرار مدلها در محیطهای صنعتی
☁️ کاهش هزینههای cloud computing
🔬 چالشها:
⚠️ کاهش جزئی دقت
⚠️ نیاز به تنظیم دقیق hyperparameterها
🌟 با کوانتایزیشن، آینده هوش مصنوعی کارآمدتر و در دسترستر میشود!
#MachineLearning #DeepLearning #AI #Quantization #TechPersian #هوش_مصنوعی
@rss_ai_ir 🤖
🔥 آیا میدانستید که میتوان حجم مدلهای هوش مصنوعی را تا 75% کاهش داد بدون از دست دادن دقت قابل توجه؟
🎯 کوانتایزیشن چیست؟
به جای استفاده از اعداد 32 بیتی (FP32)، از اعداد کمدقتتر مثل 8 بیت (INT8) یا حتی 4 بیت استفاده میکنیم!
📊 مزایای شگفتانگیز:
• 🚀 سرعت اجرا: 2-4 برابر سریعتر
• 💾 حافظه: کاهش چشمگیر مصرف RAM
• 🔋 انرژی: مصرف کمتر برای دستگاههای موبایل
• 💰 هزینه: کاهش هزینههای محاسباتی
⚙️ انواع کوانتایزیشن:
🔸 Post-training Quantization (PTQ)
🔸 Quantization-aware Training (QAT)
🔸 Dynamic Quantization
🎪 کاربردهای عملی:
📱 اجرای مدلهای بزرگ روی گوشی
🏭 استقرار مدلها در محیطهای صنعتی
☁️ کاهش هزینههای cloud computing
🔬 چالشها:
⚠️ کاهش جزئی دقت
⚠️ نیاز به تنظیم دقیق hyperparameterها
🌟 با کوانتایزیشن، آینده هوش مصنوعی کارآمدتر و در دسترستر میشود!
#MachineLearning #DeepLearning #AI #Quantization #TechPersian #هوش_مصنوعی
@rss_ai_ir 🤖
🥰22🎉20👏19❤14🔥13👍11😁8👎1🙏1
🤖 ایجنت جدید گوگل با نام MLE-STAR، دنیای مهندسی مدلهای یادگیری ماشین را متحول کرده است
@rss_ai_ir
⛓️ بدون نیاز به حتی یک خط کدنویسی دستی، این سیستم میتواند بهصورت خودکار مدل بسازد، آموزش دهد، تست کند و بهینهسازی انجام دهد. عملکرد آن در رقابتهای واقعی پلتفرم Kaggle بیسابقه بوده است.
📈 ترکیب MLE-STAR با Gemini-2.5-Pro توانسته در ۶۳٪ رقابتها مدال بگیرد و در بیش از ۸۰٪ موارد، عملکردی بالاتر از میانه رقبا داشته باشد. این نتایج نسبت به روشهایی مانند GPT-4o یا نسخههای دیگر بهمراتب بهتر بودهاند.
🔍 مدلهای جدید مانند EfficientNet یا ViT بهصورت خودکار از طریق جستوجوی وب انتخاب میشوند؛ دیگر خبری از استفاده از مدلهای قدیمی و ایستا نیست.
🛡 سه ماژول ایمنی درونساخت برای جلوگیری از اشتباهات رایج مانند نشت داده، خطاهای کدنویسی یا توهمات مدل تعبیه شدهاند تا نتیجهای پایدار، دقیق و ایمن حاصل شود.
🧠 تمرکز این ایجنت بهجای آزمونوخطای کور، روی انتخابهای هوشمند، ترکیب مدلها و اصلاح دقیق کدهاست. این یعنی هوش مصنوعی در حال نوشتن هوش مصنوعی است.
🛠 دسترسی کامل به کد این سیستم از طریق ابزار ADK برای توسعهدهندگان فراهم شده و بهصورت متنباز قابل استفاده است.
#هوش_مصنوعی #گوگل #MLESTAR #AutoML #AIagents #یادگیری_ماشین #خودکارسازی #AI4Industry #Kaggle #MachineLearning #OpenSource #مهندسی_هوش_مصنوعی #گوگل_جمینی
@rss_ai_ir
@rss_ai_ir
⛓️ بدون نیاز به حتی یک خط کدنویسی دستی، این سیستم میتواند بهصورت خودکار مدل بسازد، آموزش دهد، تست کند و بهینهسازی انجام دهد. عملکرد آن در رقابتهای واقعی پلتفرم Kaggle بیسابقه بوده است.
📈 ترکیب MLE-STAR با Gemini-2.5-Pro توانسته در ۶۳٪ رقابتها مدال بگیرد و در بیش از ۸۰٪ موارد، عملکردی بالاتر از میانه رقبا داشته باشد. این نتایج نسبت به روشهایی مانند GPT-4o یا نسخههای دیگر بهمراتب بهتر بودهاند.
🔍 مدلهای جدید مانند EfficientNet یا ViT بهصورت خودکار از طریق جستوجوی وب انتخاب میشوند؛ دیگر خبری از استفاده از مدلهای قدیمی و ایستا نیست.
🛡 سه ماژول ایمنی درونساخت برای جلوگیری از اشتباهات رایج مانند نشت داده، خطاهای کدنویسی یا توهمات مدل تعبیه شدهاند تا نتیجهای پایدار، دقیق و ایمن حاصل شود.
🧠 تمرکز این ایجنت بهجای آزمونوخطای کور، روی انتخابهای هوشمند، ترکیب مدلها و اصلاح دقیق کدهاست. این یعنی هوش مصنوعی در حال نوشتن هوش مصنوعی است.
🛠 دسترسی کامل به کد این سیستم از طریق ابزار ADK برای توسعهدهندگان فراهم شده و بهصورت متنباز قابل استفاده است.
#هوش_مصنوعی #گوگل #MLESTAR #AutoML #AIagents #یادگیری_ماشین #خودکارسازی #AI4Industry #Kaggle #MachineLearning #OpenSource #مهندسی_هوش_مصنوعی #گوگل_جمینی
@rss_ai_ir
🎉21❤17👍17🥰16👏12😁12🔥11🙏1
This media is not supported in your browser
VIEW IN TELEGRAM
✊ با GAN Lab، دیگه یادگیری GANها کار یکی دو دقیقهست!
👨🏻💻 شبکههای مولد تخاصمی یا همون GANها، جزو پیچیدهترین و در عین حال جذابترین مدلهای یادگیری عمیق به حساب میان. با این حال، درک دقیق نحوهی عملکردشون حتی برای خیلی از حرفهایها هم ساده نیست، چه برسه به کسی که تازه میخواد یاد بگیره!
✏️ ابزار GAN Lab یک محیط تعاملی و بصریه که میتونی باهاش بهصورت زنده و داخل مرورگر با GANها کار کنی:
مدل بسازی، آموزش بدی و مرحلهبهمرحله خروجیها و پیشرفت رو ببینی. تجربهای شبیه TensorFlow Playground، ولی مخصوص GANها!
⬅️ این ابزار با TensorFlow.js ساخته شده و تمام پردازشها مستقیماً روی GPU مرورگر انجام میشن. یعنی:
✅ نیازی به نصب هیچ نرمافزار یا تنظیمات پیچیده نداری
☑️ فقط یک مرورگر کافیه تا وارد دنیای شگفتانگیز GAN بشی!
📌 دسترسی به ابزار: ┌ 🏷 GAN Lab
├ 🌎 Website
└ 🐱 GitHub-Repos
🌐 #یادگیری_عمیق #GAN #شبکه_مولد #DeepLearning #MachineLearning #TensorFlow
🧠 مهندس یادگیری عمیق شوید:
@rss_ai_ir
👨🏻💻 شبکههای مولد تخاصمی یا همون GANها، جزو پیچیدهترین و در عین حال جذابترین مدلهای یادگیری عمیق به حساب میان. با این حال، درک دقیق نحوهی عملکردشون حتی برای خیلی از حرفهایها هم ساده نیست، چه برسه به کسی که تازه میخواد یاد بگیره!
✏️ ابزار GAN Lab یک محیط تعاملی و بصریه که میتونی باهاش بهصورت زنده و داخل مرورگر با GANها کار کنی:
مدل بسازی، آموزش بدی و مرحلهبهمرحله خروجیها و پیشرفت رو ببینی. تجربهای شبیه TensorFlow Playground، ولی مخصوص GANها!
⬅️ این ابزار با TensorFlow.js ساخته شده و تمام پردازشها مستقیماً روی GPU مرورگر انجام میشن. یعنی:
✅ نیازی به نصب هیچ نرمافزار یا تنظیمات پیچیده نداری
☑️ فقط یک مرورگر کافیه تا وارد دنیای شگفتانگیز GAN بشی!
📌 دسترسی به ابزار: ┌ 🏷 GAN Lab
├ 🌎 Website
└ 🐱 GitHub-Repos
🌐 #یادگیری_عمیق #GAN #شبکه_مولد #DeepLearning #MachineLearning #TensorFlow
🧠 مهندس یادگیری عمیق شوید:
@rss_ai_ir
🔥8👍7🥰7👏5😁5🎉4❤2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 تکنیک بوستینگ (Boosting) در یادگیری ماشین
بوستینگ یکی از قدرتمندترین تکنیکها در یادگیری تجمعی (Ensemble Learning) است که هدف آن ترکیب چندین مدل ضعیف (Weak Learners) برای ساخت یک مدل قوی با خطای کم است.
🔹 ایده اصلی
در بوستینگ، مدلها بهصورت پیاپی (Sequential) آموزش داده میشوند. هر مدل جدید تلاش میکند خطاهای مدلهای قبلی را اصلاح کند. به این ترتیب، وزن بیشتری به نمونههایی داده میشود که در مراحل قبلی بهدرستی پیشبینی نشدهاند.
🔹 مراحل کلی
1. شروع با یک مدل ضعیف (مثلاً درخت تصمیم کوچک)
2. محاسبه خطاها و افزایش وزن دادههای سخت
3. آموزش مدل بعدی با تمرکز بر دادههای دارای خطای بالا
4. ترکیب خروجی مدلها (مثلاً با میانگین وزنی یا جمعبندی)
🔹 انواع معروف بوستینگ
AdaBoost → اولین نسخه مشهور بوستینگ، تغییر وزن نمونهها پس از هر مرحله
Gradient Boosting → استفاده از گرادیان برای کاهش خطا بهصورت مرحلهای
XGBoost → نسخه بهینهسازیشده با سرعت و دقت بالا
LightGBM → سریع و مناسب دادههای حجیم
CatBoost → بهینه برای دادههای دستهای (Categorical)
🔹 مزایا
♻️دقت بالا در مسائل طبقهبندی و رگرسیون
♻️توانایی مدیریت دادههای پیچیده
♻️کاهش Bias و بهبود Generalization
🔹 معایب
♻️حساس به نویز و دادههای پرت
♻️هزینه محاسباتی بالا در مجموعه دادههای بزرگ
📌 بوستینگ در بسیاری از مسابقات دادهکاوی (Kaggle) و پروژههای صنعتی، انتخاب اول برای رسیدن به بالاترین دقت است.
#هوش_مصنوعی #یادگیری_ماشین #Boosting #DataScience #MachineLearning #EnsembleLearning #AI #XGBoost #LightGBM #CatBoost #GradientBoosting
@rss_ai_ir 🤖
بوستینگ یکی از قدرتمندترین تکنیکها در یادگیری تجمعی (Ensemble Learning) است که هدف آن ترکیب چندین مدل ضعیف (Weak Learners) برای ساخت یک مدل قوی با خطای کم است.
🔹 ایده اصلی
در بوستینگ، مدلها بهصورت پیاپی (Sequential) آموزش داده میشوند. هر مدل جدید تلاش میکند خطاهای مدلهای قبلی را اصلاح کند. به این ترتیب، وزن بیشتری به نمونههایی داده میشود که در مراحل قبلی بهدرستی پیشبینی نشدهاند.
🔹 مراحل کلی
1. شروع با یک مدل ضعیف (مثلاً درخت تصمیم کوچک)
2. محاسبه خطاها و افزایش وزن دادههای سخت
3. آموزش مدل بعدی با تمرکز بر دادههای دارای خطای بالا
4. ترکیب خروجی مدلها (مثلاً با میانگین وزنی یا جمعبندی)
🔹 انواع معروف بوستینگ
AdaBoost → اولین نسخه مشهور بوستینگ، تغییر وزن نمونهها پس از هر مرحله
Gradient Boosting → استفاده از گرادیان برای کاهش خطا بهصورت مرحلهای
XGBoost → نسخه بهینهسازیشده با سرعت و دقت بالا
LightGBM → سریع و مناسب دادههای حجیم
CatBoost → بهینه برای دادههای دستهای (Categorical)
🔹 مزایا
♻️دقت بالا در مسائل طبقهبندی و رگرسیون
♻️توانایی مدیریت دادههای پیچیده
♻️کاهش Bias و بهبود Generalization
🔹 معایب
♻️حساس به نویز و دادههای پرت
♻️هزینه محاسباتی بالا در مجموعه دادههای بزرگ
📌 بوستینگ در بسیاری از مسابقات دادهکاوی (Kaggle) و پروژههای صنعتی، انتخاب اول برای رسیدن به بالاترین دقت است.
#هوش_مصنوعی #یادگیری_ماشین #Boosting #DataScience #MachineLearning #EnsembleLearning #AI #XGBoost #LightGBM #CatBoost #GradientBoosting
@rss_ai_ir 🤖
🎉8👍6👏6❤5😁5🔥4🥰2
📌 یادگیری تقویتی در صنعت — چه زمانی مناسب است؟
@rss_ai_ir 🤖🏭
یادگیری تقویتی (Reinforcement Learning) زمانی در پروژههای صنعتی کاربرد دارد که:
---
🔹 محیط پویا و غیرقطعی است
وقتی فرآیند یا سیستم دائم در حال تغییر است و مدل باید به مرور زمان بهترین تصمیم را یاد بگیرد، RL انتخاب مناسبی است.
#DynamicSystems
🔹 هدف رسیدن به حداکثر بهرهوری در بلندمدت است
اگر سود یا کیفیت وابسته به سلسله تصمیمها باشد و نه یک خروجی لحظهای، RL میتواند راهحل بهینه ارائه دهد.
#LongTermOptimization
🔹 امکان شبیهسازی یا تعامل مکرر با سیستم وجود دارد
RL برای یادگیری نیاز به آزمونوخطای فراوان دارد؛ داشتن یک شبیهساز صنعتی یا امکان تست ایمن روی سیستم، ضروری است.
#IndustrialSimulation
🔹 قوانین تصمیمگیری سخت و دقیق نیستند
وقتی نمیتوان با قوانین از پیشتعریفشده تمام سناریوها را پوشش داد، RL میتواند با تجربهآموزی، سیاست تصمیمگیری را کشف کند.
#AdaptiveControl
🔹 مسئله چندمرحلهای یا کنترل فرآیند است
از کنترل رباتها و خطوط تولید گرفته تا زمانبندی تعمیرات و مدیریت مصرف انرژی، RL در مسائل Sequential Decision Making میدرخشد.
#ProcessControl
---
📍 مثالها در صنعت:
♻️بهینهسازی مصرف انرژی در کارخانه
♻️کنترل بازوی رباتیک در مونتاژ
♻️زمانبندی تولید و تعمیرات پیشگیرانه
♻️تنظیمات خودکار پارامترهای فرآیند ذوب یا ریختهگری
#ReinforcementLearning #هوش_مصنوعی #AI_industrial #RL_industry #machinelearning
@rss_ai_ir 🤖🏭
یادگیری تقویتی (Reinforcement Learning) زمانی در پروژههای صنعتی کاربرد دارد که:
---
🔹 محیط پویا و غیرقطعی است
وقتی فرآیند یا سیستم دائم در حال تغییر است و مدل باید به مرور زمان بهترین تصمیم را یاد بگیرد، RL انتخاب مناسبی است.
#DynamicSystems
🔹 هدف رسیدن به حداکثر بهرهوری در بلندمدت است
اگر سود یا کیفیت وابسته به سلسله تصمیمها باشد و نه یک خروجی لحظهای، RL میتواند راهحل بهینه ارائه دهد.
#LongTermOptimization
🔹 امکان شبیهسازی یا تعامل مکرر با سیستم وجود دارد
RL برای یادگیری نیاز به آزمونوخطای فراوان دارد؛ داشتن یک شبیهساز صنعتی یا امکان تست ایمن روی سیستم، ضروری است.
#IndustrialSimulation
🔹 قوانین تصمیمگیری سخت و دقیق نیستند
وقتی نمیتوان با قوانین از پیشتعریفشده تمام سناریوها را پوشش داد، RL میتواند با تجربهآموزی، سیاست تصمیمگیری را کشف کند.
#AdaptiveControl
🔹 مسئله چندمرحلهای یا کنترل فرآیند است
از کنترل رباتها و خطوط تولید گرفته تا زمانبندی تعمیرات و مدیریت مصرف انرژی، RL در مسائل Sequential Decision Making میدرخشد.
#ProcessControl
---
📍 مثالها در صنعت:
♻️بهینهسازی مصرف انرژی در کارخانه
♻️کنترل بازوی رباتیک در مونتاژ
♻️زمانبندی تولید و تعمیرات پیشگیرانه
♻️تنظیمات خودکار پارامترهای فرآیند ذوب یا ریختهگری
#ReinforcementLearning #هوش_مصنوعی #AI_industrial #RL_industry #machinelearning
🔥8👍7🎉5❤3😁3👏1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 یادگیری عمیق و نقش Batch Normalization
در مسیر طراحی شبکههای عصبی عمیق، یکی از چالشهای کلیدی، پراکندگی داخلی دادهها (Internal Covariate Shift) است. این پدیده زمانی رخ میدهد که توزیع ورودی هر لایه در طول آموزش تغییر کند و باعث ناپایداری و کندی یادگیری شود.
🔑 تکنیک Batch Normalization (BN) یکی از تکنیکهای حیاتی برای رفع این مشکل است. در این روش، ورودی هر لایه در طول آموزش نرمالسازی میشود و سپس با پارامترهای قابل یادگیری (گاما و بتا) مقیاسدهی و انتقال داده میشود.
⚡️ مزایای کلیدی BN:
1. 🚀 شتاب در آموزش → امکان یادگیری سریعتر با نرخ یادگیری بالاتر.
2. 🔒 پایداری بیشتر → جلوگیری از نوسان شدید در گرادیانها.
3. 🎯 بهبود دقت → کمک به مدل برای رسیدن به مینیمم بهینهتر.
4. 🛡 اثر منظمسازی (Regularization) → کاهش نیاز به Dropout در بسیاری از موارد.
💡 امروزه، BN به عنوان یک استاندارد طلایی در شبکههای کانولوشنی (CNNs) شناخته میشود و تقریباً در همه مدلهای مدرن (مانند ResNet و EfficientNet) استفاده میشود.
🔍 با این حال، در مدلهای سبک یا کاربردهای بلادرنگ، جایگزینهایی مثل Layer Normalization، Group Normalization و Instance Normalization نیز اهمیت ویژهای پیدا کردهاند.
---
✨ نتیجهگیری:
اگر به دنبال ساخت یک شبکه عمیق پایدار و سریع هستید، Batch Normalization یکی از اولین ابزارهایی است که باید در جعبهابزار خود داشته باشید.
---
🔖 #DeepLearning #BatchNormalization #AI #MachineLearning
✍️ @rss_ai_ir
در مسیر طراحی شبکههای عصبی عمیق، یکی از چالشهای کلیدی، پراکندگی داخلی دادهها (Internal Covariate Shift) است. این پدیده زمانی رخ میدهد که توزیع ورودی هر لایه در طول آموزش تغییر کند و باعث ناپایداری و کندی یادگیری شود.
🔑 تکنیک Batch Normalization (BN) یکی از تکنیکهای حیاتی برای رفع این مشکل است. در این روش، ورودی هر لایه در طول آموزش نرمالسازی میشود و سپس با پارامترهای قابل یادگیری (گاما و بتا) مقیاسدهی و انتقال داده میشود.
⚡️ مزایای کلیدی BN:
1. 🚀 شتاب در آموزش → امکان یادگیری سریعتر با نرخ یادگیری بالاتر.
2. 🔒 پایداری بیشتر → جلوگیری از نوسان شدید در گرادیانها.
3. 🎯 بهبود دقت → کمک به مدل برای رسیدن به مینیمم بهینهتر.
4. 🛡 اثر منظمسازی (Regularization) → کاهش نیاز به Dropout در بسیاری از موارد.
💡 امروزه، BN به عنوان یک استاندارد طلایی در شبکههای کانولوشنی (CNNs) شناخته میشود و تقریباً در همه مدلهای مدرن (مانند ResNet و EfficientNet) استفاده میشود.
🔍 با این حال، در مدلهای سبک یا کاربردهای بلادرنگ، جایگزینهایی مثل Layer Normalization، Group Normalization و Instance Normalization نیز اهمیت ویژهای پیدا کردهاند.
---
✨ نتیجهگیری:
اگر به دنبال ساخت یک شبکه عمیق پایدار و سریع هستید، Batch Normalization یکی از اولین ابزارهایی است که باید در جعبهابزار خود داشته باشید.
---
🔖 #DeepLearning #BatchNormalization #AI #MachineLearning
✍️ @rss_ai_ir
🔥7😁6👍5🥰5🎉5👏4❤3👎1🙏1