مدیر سابق گوگل David Petrou که به خاطر کار روی Google Goggles و Google Glass شناخته میشود، استارتاپی به نام Continua راهاندازی کرده است 💬🤖 — یک عامل هوش مصنوعی که میتواند به گروههای چت در SMS، iMessage و Discord بپیوندد تا در هماهنگی برنامهها، مدیریت وظایف و کاهش شلوغی گفتگو کمک کند.
---
✨ جزئیات کلیدی
♻️جذب سرمایه ۸ میلیون دلاری در دور Seed به رهبری GV با مشارکت Bessemer Venture Partners و سرمایهگذاران فرشته.
♻️قابلیتهایی مانند تنظیم یادآور، برگزاری نظرسنجی، ایجاد اسناد و پاسخگویی به سوالات در پیام خصوصی (DM).
♻️آموزش ویژه برای مدیریت مکالمات چندنفره با هوش اجتماعی.
♻️امکان افزودن مستقیم Continua به گروهها و تعیین میزان مشارکت آن توسط کاربر.
---
🎯 هدف این پروژه، تبدیل مدلهای زبانی بزرگ (LLM) به بخشی طبیعی و بدون مزاحمت از هماهنگی روزمره در گروههاست.
#هوش_مصنوعی 🤖 #استارتاپ 🚀 #چت_بات 💬 #مدیریت_وظایف 📅 #LLM
---
✨ جزئیات کلیدی
♻️جذب سرمایه ۸ میلیون دلاری در دور Seed به رهبری GV با مشارکت Bessemer Venture Partners و سرمایهگذاران فرشته.
♻️قابلیتهایی مانند تنظیم یادآور، برگزاری نظرسنجی، ایجاد اسناد و پاسخگویی به سوالات در پیام خصوصی (DM).
♻️آموزش ویژه برای مدیریت مکالمات چندنفره با هوش اجتماعی.
♻️امکان افزودن مستقیم Continua به گروهها و تعیین میزان مشارکت آن توسط کاربر.
---
🎯 هدف این پروژه، تبدیل مدلهای زبانی بزرگ (LLM) به بخشی طبیعی و بدون مزاحمت از هماهنگی روزمره در گروههاست.
#هوش_مصنوعی 🤖 #استارتاپ 🚀 #چت_بات 💬 #مدیریت_وظایف 📅 #LLM
🎉9😁7❤5🔥3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🩺 وقتی هوش مصنوعی از بسیاری از پزشکان بهتر عمل میکند
✅داریو آمودئی، مدیرعامل Anthropic، میگوید:
❌برخی از برندگان نوبل در زیستشناسی امروز از LLMها (مدلهای زبانی بزرگ) مشاورههای بهتری نسبت به اکثر پزشکان دریافت میکنند.
🔹 او تأکید میکند که البته ۱٪ برتر پزشکان همچنان ارزش مراجعه حضوری دارند،
اما برای بقیه موارد، LLMها سریعتر، سازگارتر و دقیقتر عمل میکنند.
💡 چرا؟
زیرا بخش زیادی از کار پزشکی الگویابی و ترکیب حقایق است، و این دقیقاً همان چیزی است که LLMها در آن میدرخشند.
🌐 #هوش_مصنوعی #پزشکی_دیجیتال #LLM #AIHealthcare
🧠 @rss_ai_ir
✅داریو آمودئی، مدیرعامل Anthropic، میگوید:
❌برخی از برندگان نوبل در زیستشناسی امروز از LLMها (مدلهای زبانی بزرگ) مشاورههای بهتری نسبت به اکثر پزشکان دریافت میکنند.
🔹 او تأکید میکند که البته ۱٪ برتر پزشکان همچنان ارزش مراجعه حضوری دارند،
اما برای بقیه موارد، LLMها سریعتر، سازگارتر و دقیقتر عمل میکنند.
💡 چرا؟
زیرا بخش زیادی از کار پزشکی الگویابی و ترکیب حقایق است، و این دقیقاً همان چیزی است که LLMها در آن میدرخشند.
🌐 #هوش_مصنوعی #پزشکی_دیجیتال #LLM #AIHealthcare
🧠 @rss_ai_ir
❤8🎉7🔥6👍3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 نقشه راه برای تبدیل شدن به پرامپت انجینیر در سال ۲۰۲۵ 🧑🏻💻✨
برای متخصص شدن در حوزه Prompt Engineering باید مسیر زیر را طی کنید:
1️⃣ یادگیری مبانی اولیه پرامپتنویسی
2️⃣ آشنایی با مدلهای زبانی (LLMs) و نحوه تنظیم آنها
3️⃣ تمرین نوشتن پرامپتهای کارآمد و بهینه
4️⃣ ساخت الگوهای پرامپت و درک معماری آنها
5️⃣ تسلط بر تکنیکهای پیشرفته در پرامپتنویسی
6️⃣ تجربه کار با مدلهای چندوجهی (متنی–تصویری–صوتی)
7️⃣ تمرین مداوم برای تبدیل شدن به یک پرامپتنویس حرفهای
🌐 آینده مشاغل مرتبط با هوش مصنوعی نیازمند مهارت در پرامپتنویسی است. کسی که این مهارت را دارد، نقش کلیدی در جهتدهی به مدلهای هوش مصنوعی ایفا میکند.
#هوش_مصنوعی #PromptEngineering #AI #LLM #DeepLearning
@rss_ai_ir
برای متخصص شدن در حوزه Prompt Engineering باید مسیر زیر را طی کنید:
1️⃣ یادگیری مبانی اولیه پرامپتنویسی
2️⃣ آشنایی با مدلهای زبانی (LLMs) و نحوه تنظیم آنها
3️⃣ تمرین نوشتن پرامپتهای کارآمد و بهینه
4️⃣ ساخت الگوهای پرامپت و درک معماری آنها
5️⃣ تسلط بر تکنیکهای پیشرفته در پرامپتنویسی
6️⃣ تجربه کار با مدلهای چندوجهی (متنی–تصویری–صوتی)
7️⃣ تمرین مداوم برای تبدیل شدن به یک پرامپتنویس حرفهای
🌐 آینده مشاغل مرتبط با هوش مصنوعی نیازمند مهارت در پرامپتنویسی است. کسی که این مهارت را دارد، نقش کلیدی در جهتدهی به مدلهای هوش مصنوعی ایفا میکند.
#هوش_مصنوعی #PromptEngineering #AI #LLM #DeepLearning
@rss_ai_ir
👍8🔥6❤4🎉4😁1
😎 حقیقت جالبی که خیلی از توسعهدهندهها درک کردهاند اینه که کاربران عادی اهمیتی به «پرامپتسازی حرفهای» نمیدهند.
📊 در تمام اپلیکیشنهایی که روی LLM ساخته شدهاند، آنالیتیکها نشان میدهد کاربر یک جمله ساده مینویسد و انتظار خروجی کامل دارد. به همین دلیل، توسعهدهندگان داخل خودِ اپ حجم زیادی از دستورالعملها و ساختارها را بهصورت پیشفرض جاسازی میکنند تا همان درخواست سادهی کاربر به یک پرامپت پیچیده و کاربردی تبدیل شود.
🧠 از طرف دیگر، مدلهای «تفکری» (Thinking Models) اساساً نیازمند پرامپتهای کلاسیک نیستند. این مدلها خودشان جای خالی درخواستی کاربر را پر میکنند و بافت منطقی یا دادهای لازم را اضافه میکنند. تعداد کمی از افراد بلدند این نسل از مدلها را درست پرامپت کنند، ولی واقعیت اینه که برای عموم کاربرها هم نیازی نیست.
✅ بله، مواقعی هست که یک پرامپت خیلی خاص و دقیق لازم میشود (مثلاً در یک تسک پژوهشی یا تخصصی)، اما اینها استثنا هستند. اگر تا حالا در چنین وضعیتی نبودید، اصلاً مهم نیست – میتوانید بیخیال ماجرای «پرامپت پارسلتانگ» شوید.
✨ نتیجه: تنبل بودن در پرامپتنویسی نه تنها اشکال نداره، بلکه مسیر درست استفاده از LLM همین است. احترام به کسانی که راحت مینویسند و انتظار دارند AI خودش فکر کند! 🙌
@rss_ai_ir | #LLM #AI #Prompting
📊 در تمام اپلیکیشنهایی که روی LLM ساخته شدهاند، آنالیتیکها نشان میدهد کاربر یک جمله ساده مینویسد و انتظار خروجی کامل دارد. به همین دلیل، توسعهدهندگان داخل خودِ اپ حجم زیادی از دستورالعملها و ساختارها را بهصورت پیشفرض جاسازی میکنند تا همان درخواست سادهی کاربر به یک پرامپت پیچیده و کاربردی تبدیل شود.
🧠 از طرف دیگر، مدلهای «تفکری» (Thinking Models) اساساً نیازمند پرامپتهای کلاسیک نیستند. این مدلها خودشان جای خالی درخواستی کاربر را پر میکنند و بافت منطقی یا دادهای لازم را اضافه میکنند. تعداد کمی از افراد بلدند این نسل از مدلها را درست پرامپت کنند، ولی واقعیت اینه که برای عموم کاربرها هم نیازی نیست.
✅ بله، مواقعی هست که یک پرامپت خیلی خاص و دقیق لازم میشود (مثلاً در یک تسک پژوهشی یا تخصصی)، اما اینها استثنا هستند. اگر تا حالا در چنین وضعیتی نبودید، اصلاً مهم نیست – میتوانید بیخیال ماجرای «پرامپت پارسلتانگ» شوید.
✨ نتیجه: تنبل بودن در پرامپتنویسی نه تنها اشکال نداره، بلکه مسیر درست استفاده از LLM همین است. احترام به کسانی که راحت مینویسند و انتظار دارند AI خودش فکر کند! 🙌
@rss_ai_ir | #LLM #AI #Prompting
👍10🔥6🎉6❤5👏1😁1
🧠 SSRL: Self-Search Reinforcement Learning
♻️مقالهای تازه از Yanxu Chen و همکاران رویکردی نو به آموزش مدلهای زبانی بزرگ (LLMs) معرفی کرده: یادگیری تقویتی با جستجوی درونی (Self-Search RL).
---
🔹 ایده اصلی
♻️به جای اینکه مدل برای یادگیری نیازمند اتصال به موتورهای جستجوی بیرونی باشه (که هزینهبر و کند است)، در محیطی شبیهسازیشده از خودش به عنوان عامل و محیط استفاده میکنه. مدل بهصورت خودبازگشتی (autoregressive) هم کوئری جستجو تولید میکنه و هم پاسخ اطلاعاتی، و سپس با پاداشهای مبتنی بر فرمت و نتیجه آموزش داده میشه.
---
🔹 هدف
♻️سنجش ظرفیتهای جستجوی درونی (intrinsic search capabilities) در LLMها
♻️بررسی اینکه آیا آموزش در محیط «کاملاً شبیهسازیشده» میتونه به انتقال مؤثر در دنیای واقعی (sim-to-real transfer) منجر بشه یا نه.
---
🔹 نتایج کلیدی
♻️مدل Llama-3.1-8B-Instruct که با SSRL آموزش دید، در شش بنچمارک به میانگین ۴۳.۱٪ دقت رسید.
♻️این عملکرد از ZeroSearch (با ۴۱.۵٪) بهتر بود.
♻️در مقایسه با روشهای وابسته به API، SSRL هزینه آموزش رو بهشدت کاهش میده، چون نیازی به فراخوانی مداوم APIها نداره.
---
🔹 پیام برای متخصصان AI
♻️همچنین SSRL یک پارادایم کمهزینه و کارآمد برای آموزش عاملهای جستجو فراهم میکنه.
♻️مدلها در فاز آموزش کاملاً روی دادههای شبیهسازیشده تمرین میکنن، و بعد میتونن در زمان استقرار واقعی با موتورهای جستجو بهکار گرفته بشن. این یعنی ترکیب سرعت، کاهش هزینه و بهبود کارایی در توسعه نسل بعدی عاملهای جستجوگر.
📌 بیشتر بخوانید:
arXiv
HuggingFace Papers
#هوش_مصنوعی #یادگیری_تقویتی #LLM #SSRL #جستجو
@rss_ai_ir
♻️مقالهای تازه از Yanxu Chen و همکاران رویکردی نو به آموزش مدلهای زبانی بزرگ (LLMs) معرفی کرده: یادگیری تقویتی با جستجوی درونی (Self-Search RL).
---
🔹 ایده اصلی
♻️به جای اینکه مدل برای یادگیری نیازمند اتصال به موتورهای جستجوی بیرونی باشه (که هزینهبر و کند است)، در محیطی شبیهسازیشده از خودش به عنوان عامل و محیط استفاده میکنه. مدل بهصورت خودبازگشتی (autoregressive) هم کوئری جستجو تولید میکنه و هم پاسخ اطلاعاتی، و سپس با پاداشهای مبتنی بر فرمت و نتیجه آموزش داده میشه.
---
🔹 هدف
♻️سنجش ظرفیتهای جستجوی درونی (intrinsic search capabilities) در LLMها
♻️بررسی اینکه آیا آموزش در محیط «کاملاً شبیهسازیشده» میتونه به انتقال مؤثر در دنیای واقعی (sim-to-real transfer) منجر بشه یا نه.
---
🔹 نتایج کلیدی
♻️مدل Llama-3.1-8B-Instruct که با SSRL آموزش دید، در شش بنچمارک به میانگین ۴۳.۱٪ دقت رسید.
♻️این عملکرد از ZeroSearch (با ۴۱.۵٪) بهتر بود.
♻️در مقایسه با روشهای وابسته به API، SSRL هزینه آموزش رو بهشدت کاهش میده، چون نیازی به فراخوانی مداوم APIها نداره.
---
🔹 پیام برای متخصصان AI
♻️همچنین SSRL یک پارادایم کمهزینه و کارآمد برای آموزش عاملهای جستجو فراهم میکنه.
♻️مدلها در فاز آموزش کاملاً روی دادههای شبیهسازیشده تمرین میکنن، و بعد میتونن در زمان استقرار واقعی با موتورهای جستجو بهکار گرفته بشن. این یعنی ترکیب سرعت، کاهش هزینه و بهبود کارایی در توسعه نسل بعدی عاملهای جستجوگر.
📌 بیشتر بخوانید:
arXiv
HuggingFace Papers
#هوش_مصنوعی #یادگیری_تقویتی #LLM #SSRL #جستجو
@rss_ai_ir
🔥7👍6🥰6👏6😁5❤4🎉3
🆕 DeepSeek-V3.1 منتشر شد
مدل جدید فعلاً بدون اعلام رسمی بیرون اومده، اما وزنهای نسخه base روی HuggingFace قرار گرفتهاند. 📂
🔹 آنچه تا الان میدونیم:
♻️ظرفیت کانتکست افزایش پیدا کرده تا ۱۲۸هزار توکن
♻️دامنهی دانش بهروز شده تا جولای ۲۰۲۴
♻️معماری تغییر اساسی نداشته، اما گزارش شده که مدل بهصورت هیبریدی طراحی شده
با وجود این تغییرات، به نظر میرسه این نسخه بیشتر یک آپدیت کوچک باشه تا یک جهش بزرگ. حالا باید منتظر بنچمارکها و پست رسمی بلاگ بمونیم تا تصویر دقیقتری به دست بیاد 🤔
#هوش_مصنوعی #DeepSeek #LLM #مدل_زبانی
@rss_ai_ir
مدل جدید فعلاً بدون اعلام رسمی بیرون اومده، اما وزنهای نسخه base روی HuggingFace قرار گرفتهاند. 📂
🔹 آنچه تا الان میدونیم:
♻️ظرفیت کانتکست افزایش پیدا کرده تا ۱۲۸هزار توکن
♻️دامنهی دانش بهروز شده تا جولای ۲۰۲۴
♻️معماری تغییر اساسی نداشته، اما گزارش شده که مدل بهصورت هیبریدی طراحی شده
با وجود این تغییرات، به نظر میرسه این نسخه بیشتر یک آپدیت کوچک باشه تا یک جهش بزرگ. حالا باید منتظر بنچمارکها و پست رسمی بلاگ بمونیم تا تصویر دقیقتری به دست بیاد 🤔
#هوش_مصنوعی #DeepSeek #LLM #مدل_زبانی
@rss_ai_ir
👍12😁12🔥9❤8🎉6🥰4👏2
📌 عنوان:
چرا دراپاوت فقط یک «خاموشکننده تصادفی» نیست؟ 🤔🔍
---
بیشتر متخصصان هوش مصنوعی، دراپاوت را صرفاً روشی برای خاموش کردن تصادفی نرونها میدانند، اما پشت این تکنیک ایدهای عمیقتر وجود دارد که آن را به یکی از مهمترین روشهای منظمسازی (Regularization) تبدیل کرده است.
💡 ایده اصلی
در مراحل آموزش، هر بار درصدی از نرونها (مثلاً ۲۰ تا ۵۰٪) به طور تصادفی غیرفعال میشوند. این کار جلوی وابستگی بیشازحد شبکه به مسیرهای خاص پردازش اطلاعات را میگیرد.
🌀 اثر پنهان
دراپاوت در عمل شبیه ترکیبگیری مدلها (Ensemble) عمل میکند. با هر بار غیرفعال شدن بخشی از نرونها، یک زیرمدل جدید ساخته میشود و در نهایت، خروجی مدل مانند میانگینگیری از هزاران زیرمدل مستقل خواهد بود.
🚀 چرا اهمیت دارد؟
- کاهش شدید بیشبرازش (Overfitting) بدون نیاز به داده اضافه
- ایجاد تعداد زیادی مدل کوچک در دل یک مدل اصلی بدون هزینهی جداگانه
- سازگاری فوقالعاده با معماریهای پیشرفته مثل ترنسفورمرها
⚙️ نکته تخصصی
در هنگام تست، دراپاوت غیرفعال است اما وزنها با توجه به احتمال غیرفعالسازی، مقیاسبندی (Re-scaling) میشوند تا خروجی سازگار باقی بماند.
---
🔖 #هوش_مصنوعی #یادگیری_عمیق #LLM #شبکه_عصبی #دراپ_اوت #DeepLearning #AI #MachineLearning
@rss_ai_ir
چرا دراپاوت فقط یک «خاموشکننده تصادفی» نیست؟ 🤔🔍
---
بیشتر متخصصان هوش مصنوعی، دراپاوت را صرفاً روشی برای خاموش کردن تصادفی نرونها میدانند، اما پشت این تکنیک ایدهای عمیقتر وجود دارد که آن را به یکی از مهمترین روشهای منظمسازی (Regularization) تبدیل کرده است.
💡 ایده اصلی
در مراحل آموزش، هر بار درصدی از نرونها (مثلاً ۲۰ تا ۵۰٪) به طور تصادفی غیرفعال میشوند. این کار جلوی وابستگی بیشازحد شبکه به مسیرهای خاص پردازش اطلاعات را میگیرد.
🌀 اثر پنهان
دراپاوت در عمل شبیه ترکیبگیری مدلها (Ensemble) عمل میکند. با هر بار غیرفعال شدن بخشی از نرونها، یک زیرمدل جدید ساخته میشود و در نهایت، خروجی مدل مانند میانگینگیری از هزاران زیرمدل مستقل خواهد بود.
🚀 چرا اهمیت دارد؟
- کاهش شدید بیشبرازش (Overfitting) بدون نیاز به داده اضافه
- ایجاد تعداد زیادی مدل کوچک در دل یک مدل اصلی بدون هزینهی جداگانه
- سازگاری فوقالعاده با معماریهای پیشرفته مثل ترنسفورمرها
⚙️ نکته تخصصی
در هنگام تست، دراپاوت غیرفعال است اما وزنها با توجه به احتمال غیرفعالسازی، مقیاسبندی (Re-scaling) میشوند تا خروجی سازگار باقی بماند.
---
🔖 #هوش_مصنوعی #یادگیری_عمیق #LLM #شبکه_عصبی #دراپ_اوت #DeepLearning #AI #MachineLearning
@rss_ai_ir
🥰8👏5😁5❤4🔥4👍2🎉2
🧪ابزار DeepEval؛ چارچوب متنباز برای ارزیابی LLMها
ابزار DeepEval یک ابزار ساده و متنباز است که برای ارزیابی و تست سیستمهای مدل زبانی بزرگ طراحی شده. این فریمورک شبیه Pytest عمل میکند اما تخصصی برای یونیتتست خروجیهای LLM ساخته شده است.
🔹 ویژگیها:
♻️پشتیبانی از متریکهای مهم مثل G-Eval، hallucination، answer relevancy، RAGAS و غیره.
♻️اجرای محلی روی سیستم شما بدون وابستگی به سرور خارجی.
♻️مناسب برای RAG pipelineها، چتباتها، ایجنتها و پیادهسازی با ابزارهایی مثل LangChain یا LlamaIndex.
♻️کمک به بهینهسازی مدلها، پرامپتها و معماری برای جلوگیری از prompt drifting یا حتی مهاجرت از OpenAI به میزبانی داخلی مثل DeepSeek R1.
📌 لینکها:
🖥 Github: github.com/confident-ai/deepeval
📕 Colab: Google Colab Notebook
🔗 Project: deepeval.com
@rss_ai_ir
#هوش_مصنوعی #LLM #ارزیابی #DeepEval #AItools
ابزار DeepEval یک ابزار ساده و متنباز است که برای ارزیابی و تست سیستمهای مدل زبانی بزرگ طراحی شده. این فریمورک شبیه Pytest عمل میکند اما تخصصی برای یونیتتست خروجیهای LLM ساخته شده است.
🔹 ویژگیها:
♻️پشتیبانی از متریکهای مهم مثل G-Eval، hallucination، answer relevancy، RAGAS و غیره.
♻️اجرای محلی روی سیستم شما بدون وابستگی به سرور خارجی.
♻️مناسب برای RAG pipelineها، چتباتها، ایجنتها و پیادهسازی با ابزارهایی مثل LangChain یا LlamaIndex.
♻️کمک به بهینهسازی مدلها، پرامپتها و معماری برای جلوگیری از prompt drifting یا حتی مهاجرت از OpenAI به میزبانی داخلی مثل DeepSeek R1.
📌 لینکها:
🖥 Github: github.com/confident-ai/deepeval
📕 Colab: Google Colab Notebook
🔗 Project: deepeval.com
@rss_ai_ir
#هوش_مصنوعی #LLM #ارزیابی #DeepEval #AItools
🔥9🥰8❤6👍6🎉6👏5😁4
📊 چارچوب EfficientLLM به ما یادآوری میکنه که در دنیای مدلهای بزرگ، فقط کیفیت مهم نیست؛ کارایی هم بهاندازه کافی حیاتیست.
پژوهشگران بیش از ۱۰۰ پیکربندی LLM/VLM رو بررسی کردن و بهجای تمرکز روی FLOPs تئوریک، معیارهای واقعی مثل مصرف حافظه (VRAM)، تأخیر (Latency) و انرژی رو سنجیدن.
🔑 چند نکته کلیدی:
وقتی حافظه یا سرعت گلوگاه باشه → مکانیزمهای توجه (Attention) با تعداد کلید/هد کمتر، مصرف VRAM و زمان پاسخ رو بهشدت کاهش میدن.
اگر دقت حرف اول رو میزنه → توجه کامل (Full Attention) و موقعیتدهی RoPE بهترین انتخاب هستن، اما هزینهی منابع بالاتر خواهد بود.
✳️همچنین MoE (Mixture of Experts) کیفیت رو بدون افزایش زیاد هزینهی محاسباتی بالا میبره، ولی VRAM بیشتری نیاز داره و دیپلوی سختتر میشه.
در فاینتیونینگ:
✳️ مدلهای کوچک (≈۱–۳B) → LoRA و خانوادهاش بهترین بازدهی رو دارن.
✳️ مدلهای بزرگتر (≈۱۴B+) → RSLoRA معمولا برتره.
✳️ اگر چرخههای سریع مهم باشه → Freeze لایهها سرعت رو چندبرابر میکنه.
در استنتاج:
♻️ کوانتیزهسازی تا int4 جهش بزرگی در صرفهجویی هزینه/وات/گیگابایت میده، با اندکی افت دقت.
♻️ برای حفظ دقت بالا → bf16 معمولا بهتر از fp16 روی GPUهای مدرن عمل میکنه.
📌 جمعبندی:
کمبود VRAM → توجه بهینه + موقعیت نسبی + LoRA + int4
نیاز به حداکثر دقت → توجه کامل + RoPE + RSLoRA + bf16
محدودیت Compute → سراغ MoE بروید، اما VRAM رو حساب کنید
چرخههای سریع توسعه → Freeze موقت، بعد LoRA/RSLoRA
❓شما بیشتر کجا گیر میکنید؟ حافظه، سرعت، انرژی یا دقت؟
@rss_ai_ir
#هوش_مصنوعی #مدل_زبان_بزرگ #بهینهسازی #LLM #کارایی
پژوهشگران بیش از ۱۰۰ پیکربندی LLM/VLM رو بررسی کردن و بهجای تمرکز روی FLOPs تئوریک، معیارهای واقعی مثل مصرف حافظه (VRAM)، تأخیر (Latency) و انرژی رو سنجیدن.
🔑 چند نکته کلیدی:
وقتی حافظه یا سرعت گلوگاه باشه → مکانیزمهای توجه (Attention) با تعداد کلید/هد کمتر، مصرف VRAM و زمان پاسخ رو بهشدت کاهش میدن.
اگر دقت حرف اول رو میزنه → توجه کامل (Full Attention) و موقعیتدهی RoPE بهترین انتخاب هستن، اما هزینهی منابع بالاتر خواهد بود.
✳️همچنین MoE (Mixture of Experts) کیفیت رو بدون افزایش زیاد هزینهی محاسباتی بالا میبره، ولی VRAM بیشتری نیاز داره و دیپلوی سختتر میشه.
در فاینتیونینگ:
✳️ مدلهای کوچک (≈۱–۳B) → LoRA و خانوادهاش بهترین بازدهی رو دارن.
✳️ مدلهای بزرگتر (≈۱۴B+) → RSLoRA معمولا برتره.
✳️ اگر چرخههای سریع مهم باشه → Freeze لایهها سرعت رو چندبرابر میکنه.
در استنتاج:
♻️ کوانتیزهسازی تا int4 جهش بزرگی در صرفهجویی هزینه/وات/گیگابایت میده، با اندکی افت دقت.
♻️ برای حفظ دقت بالا → bf16 معمولا بهتر از fp16 روی GPUهای مدرن عمل میکنه.
📌 جمعبندی:
کمبود VRAM → توجه بهینه + موقعیت نسبی + LoRA + int4
نیاز به حداکثر دقت → توجه کامل + RoPE + RSLoRA + bf16
محدودیت Compute → سراغ MoE بروید، اما VRAM رو حساب کنید
چرخههای سریع توسعه → Freeze موقت، بعد LoRA/RSLoRA
❓شما بیشتر کجا گیر میکنید؟ حافظه، سرعت، انرژی یا دقت؟
@rss_ai_ir
#هوش_مصنوعی #مدل_زبان_بزرگ #بهینهسازی #LLM #کارایی
😁7🔥6❤5👍5👏4🎉4🥰2
📌 دیپسیک نسخه V3.1
♻️مدل جدید با ۶۸۵ میلیارد پارامتر بهعنوان یک مدل متنباز ترکیبی برای استدلال معرفی شده است. این نسخه علاوه بر بهبودهای کیفی، تمرکز ویژهای روی تواناییهای عاملمحور (agentic capabilities) دارد.
📊 نتایج بنچمارکها نشان میدهد:
♻️در SWE-bench Verified امتیاز 66.0 در برابر 44.6 نسخه R1
♻️در SWE-bench Multilingual امتیاز 54.5 (تقریباً دو برابر نسخههای قبلی)
♻️در Terminal-Bench جهش بزرگ تا 31.3 (مقایسه با 5.7 نسخه R1)
همچنین در حوزههای کاربردی دیگر:
SimpleQA → دقت 93.4%
Frames → امتیاز 83.7
xBench-DeepSearch → امتیاز 71.2
و در Browsecomp نیز برتری قابل توجه نسبت به نسخه قبلی.
🚀 این نتایج نشان میدهد که DeepSeek-V3.1 یکی از قویترین مدلهای متنباز حال حاضر است، مخصوصاً در وظایف چندزبانه، QA و محیطهای پویا مثل ترمینال.
🔗 این حرکت، رقابت متنبازها با مدلهای کلوزد مثل GPT-5 و Claude را وارد مرحله تازهای میکند.
#AI #LLM #DeepSeek #opensource #benchmark
@rss_ai_ir
♻️مدل جدید با ۶۸۵ میلیارد پارامتر بهعنوان یک مدل متنباز ترکیبی برای استدلال معرفی شده است. این نسخه علاوه بر بهبودهای کیفی، تمرکز ویژهای روی تواناییهای عاملمحور (agentic capabilities) دارد.
📊 نتایج بنچمارکها نشان میدهد:
♻️در SWE-bench Verified امتیاز 66.0 در برابر 44.6 نسخه R1
♻️در SWE-bench Multilingual امتیاز 54.5 (تقریباً دو برابر نسخههای قبلی)
♻️در Terminal-Bench جهش بزرگ تا 31.3 (مقایسه با 5.7 نسخه R1)
همچنین در حوزههای کاربردی دیگر:
SimpleQA → دقت 93.4%
Frames → امتیاز 83.7
xBench-DeepSearch → امتیاز 71.2
و در Browsecomp نیز برتری قابل توجه نسبت به نسخه قبلی.
🚀 این نتایج نشان میدهد که DeepSeek-V3.1 یکی از قویترین مدلهای متنباز حال حاضر است، مخصوصاً در وظایف چندزبانه، QA و محیطهای پویا مثل ترمینال.
🔗 این حرکت، رقابت متنبازها با مدلهای کلوزد مثل GPT-5 و Claude را وارد مرحله تازهای میکند.
#AI #LLM #DeepSeek #opensource #benchmark
@rss_ai_ir
🔥 درست یک سال گذشت و حالا xAI وزنهای Grok 2 را منتشر کرده است.
🔹 معماری همانند Grok 1 باقی مانده: مبتنی بر MoE (Mixture of Experts) با ۸ اکسپرت.
🔹 از نظر متریکها، عملکرد در سطح GPT-4o و Claude 3.5 Sonnet گزارش شده.
🔹 حجم چکپوینت حدود ۵۰۰ گیگابایت است و برای اجرا نیاز به ۸ کارت GPU با بیش از ۴۰ گیگابایت حافظه در هر کارت دارید.
🔹 لایسنس استفاده بسیار باز است: هم استفاده غیرتجاری رایگان و هم استفاده تجاری تا سقف ۱ میلیون دلار درآمد سالانه مجاز است.
📂 مدل در Hugging Face در دسترس قرار گرفته.
@rss_ai_ir
#Grok #xAI #هوش_مصنوعی #LLM #OpenSource
🔹 معماری همانند Grok 1 باقی مانده: مبتنی بر MoE (Mixture of Experts) با ۸ اکسپرت.
🔹 از نظر متریکها، عملکرد در سطح GPT-4o و Claude 3.5 Sonnet گزارش شده.
🔹 حجم چکپوینت حدود ۵۰۰ گیگابایت است و برای اجرا نیاز به ۸ کارت GPU با بیش از ۴۰ گیگابایت حافظه در هر کارت دارید.
🔹 لایسنس استفاده بسیار باز است: هم استفاده غیرتجاری رایگان و هم استفاده تجاری تا سقف ۱ میلیون دلار درآمد سالانه مجاز است.
📂 مدل در Hugging Face در دسترس قرار گرفته.
@rss_ai_ir
#Grok #xAI #هوش_مصنوعی #LLM #OpenSource
❤18🔥12😁10👍7🎉7👏1
🌍 معرفی MCP-Universe: بِنچمارک جدید Salesforce برای LLMها با سرورهای MCP
🔹 شرکت Salesforce یک بِنچمارک تازه منتشر کرده که توانایی مدلهای زبانی بزرگ (LLM) را در کار با MCP (Model Context Protocol) میسنجد. MCP که اواخر ۲۰۲۴ توسط Anthropic معرفی شد، پروتکلی است برای اتصال LLM به سرویسها و منابع دادهی بیرونی (مثل ابزارها و APIها).
---
🔎 ساختار بِنچمارک
♻️شامل ۱۱ MCP سرور با ۱۳۳ ابزار در ۶ حوزه مختلف
♻️در مجموع ۲۳۱ تسک واقعی طراحی شد، که هرکدام نیازمند یک یا چند تعامل MCP هستند
📌 نمونه حوزهها و زیرتسکها:
🗺 ناوبری روی نقشه: مسیریابی، ایستگاههای بهینه، جستجوی مکان و جستجو بر اساس ID
💻 مدیریت ریپازیتوری کد: تنظیم پروژه، ترکینگ مشکلات، اتوماسیون و ادغام کد
💰 تحلیل مالی: پورتفولیو، گزارشدهی، استراتژی معاملاتی، داراییهای نهادی، تحلیل سود سهام
🎨 طراحی سهبعدی (Blender): ساخت آبجکت، متریال، نورپردازی، رندر و سازماندهی صحنه
🌐 اتوماسیون مرورگر: رزرو بلیط، تحلیل ورزشی، ریسرچ آکادمیک، پلتفرم آنالیز و ناوبری نقشه
🔎 وبسرچ: شناسایی افراد، استخراج موجودیتها، متریک مَچینگ، استدلال پیچیده، فکت چک
---
⚙️ روش ارزیابی
♻️بررسی صحت فرمت پاسخ
♻️مقایسه ساده با جواب درست
♻️ارزیابی داینامیک (برای پرسشهایی مثل «امروز هوا چطوره» که پاسخ ثابت ندارند)
❗️ بخش بزرگی از تسکها بیش از ۵ تماس با MCP نیاز دارند، یعنی مدل باید توانایی کار با کانتکستهای طولانی و زنجیره تعاملات پیچیده را داشته باشد. همچنین تسکهای بیشازحد ساده یا مستقل از MCP فیلتر شدند.
---
✅ اهمیت این بِنچمارک در اینه که داره اولین بار مهارت واقعی LLMها در تعامل با ابزارهای بیرونی و حل مسائل دنیای واقعی رو میسنجه، نه فقط پرسش و پاسخ متنی.
@rss_ai_ir
#هوش_مصنوعی #LLM #MCP #AI_Benchmark #صنعت
🔹 شرکت Salesforce یک بِنچمارک تازه منتشر کرده که توانایی مدلهای زبانی بزرگ (LLM) را در کار با MCP (Model Context Protocol) میسنجد. MCP که اواخر ۲۰۲۴ توسط Anthropic معرفی شد، پروتکلی است برای اتصال LLM به سرویسها و منابع دادهی بیرونی (مثل ابزارها و APIها).
---
🔎 ساختار بِنچمارک
♻️شامل ۱۱ MCP سرور با ۱۳۳ ابزار در ۶ حوزه مختلف
♻️در مجموع ۲۳۱ تسک واقعی طراحی شد، که هرکدام نیازمند یک یا چند تعامل MCP هستند
📌 نمونه حوزهها و زیرتسکها:
🗺 ناوبری روی نقشه: مسیریابی، ایستگاههای بهینه، جستجوی مکان و جستجو بر اساس ID
💻 مدیریت ریپازیتوری کد: تنظیم پروژه، ترکینگ مشکلات، اتوماسیون و ادغام کد
💰 تحلیل مالی: پورتفولیو، گزارشدهی، استراتژی معاملاتی، داراییهای نهادی، تحلیل سود سهام
🎨 طراحی سهبعدی (Blender): ساخت آبجکت، متریال، نورپردازی، رندر و سازماندهی صحنه
🌐 اتوماسیون مرورگر: رزرو بلیط، تحلیل ورزشی، ریسرچ آکادمیک، پلتفرم آنالیز و ناوبری نقشه
🔎 وبسرچ: شناسایی افراد، استخراج موجودیتها، متریک مَچینگ، استدلال پیچیده، فکت چک
---
⚙️ روش ارزیابی
♻️بررسی صحت فرمت پاسخ
♻️مقایسه ساده با جواب درست
♻️ارزیابی داینامیک (برای پرسشهایی مثل «امروز هوا چطوره» که پاسخ ثابت ندارند)
❗️ بخش بزرگی از تسکها بیش از ۵ تماس با MCP نیاز دارند، یعنی مدل باید توانایی کار با کانتکستهای طولانی و زنجیره تعاملات پیچیده را داشته باشد. همچنین تسکهای بیشازحد ساده یا مستقل از MCP فیلتر شدند.
---
✅ اهمیت این بِنچمارک در اینه که داره اولین بار مهارت واقعی LLMها در تعامل با ابزارهای بیرونی و حل مسائل دنیای واقعی رو میسنجه، نه فقط پرسش و پاسخ متنی.
@rss_ai_ir
#هوش_مصنوعی #LLM #MCP #AI_Benchmark #صنعت
🔥13❤12👍12🎉8😁6
📊 نتایج بنچمارک MCP-Universe
تستهای تازهی MCP-Universe یک برندهی مشخص داشتند: GPT-5 با اختلاف زیاد در صدر قرار گرفت:
🏆 نرخ موفقیت (SR) → ۴۳.۷٪
🏆 امتیاز ارزیابان (AE) → ۶۰.۲٪
📈 در تمام حوزهها پیشتاز است، به جز Browser Automation که کمی بهتر از آن Grok-4 عمل کرده.
---
🔎 جزئیات بر اساس حوزهها:
✅تحلیل مالی (Financial Analysis) → رکورد GPT-5 با ۶۷.۵٪؛ فاصلهی چشمگیر از بقیه.
✅طراحی سهبعدی (3D Designing) → باز هم صدرنشین با ۵۲.۶٪.
✅مدیریت مخزن کد (Repository Management) → GPT-5 با ۳۰.۳٪ بهوضوح بالاتر از رقباست.
✅اتوماسیون مرورگر (Browser Automation) → اینجا شگفتی رقم خورد: Grok-4 با ۴۱.۰٪ جلوتر از GPT-5 (۳۵.۹٪).
---
🟢 در میان مدلهای متنباز (Open-Source):
♻️مدل GLM-4.5 بهترین عملکرد را داشت با ۲۴.۷٪ SR و ۴۱.۲٪ AE.
♻️مدل Kimi-K2 با وجود تبلیغات زیاد دربارهی آموزش ویژه برای MCP، تنها به ۱۹٪ SR رسید.
---
⚠️ نکتهی مهم: حتی رهبر جدول یعنی GPT-5 هم نتوانست از مرز ۵۰٪ کیفیت نهایی عبور کند. این نشان میدهد که تعامل LLMها با سرورهای MCP هنوز راه زیادی تا بلوغ کامل دارد، و این وظایف واقعاً پیچیده و چندلایه هستند.
@rss_ai_ir
#هوش_مصنوعی #LLM #MCP #GPT5 #Benchmarks
تستهای تازهی MCP-Universe یک برندهی مشخص داشتند: GPT-5 با اختلاف زیاد در صدر قرار گرفت:
🏆 نرخ موفقیت (SR) → ۴۳.۷٪
🏆 امتیاز ارزیابان (AE) → ۶۰.۲٪
📈 در تمام حوزهها پیشتاز است، به جز Browser Automation که کمی بهتر از آن Grok-4 عمل کرده.
---
🔎 جزئیات بر اساس حوزهها:
✅تحلیل مالی (Financial Analysis) → رکورد GPT-5 با ۶۷.۵٪؛ فاصلهی چشمگیر از بقیه.
✅طراحی سهبعدی (3D Designing) → باز هم صدرنشین با ۵۲.۶٪.
✅مدیریت مخزن کد (Repository Management) → GPT-5 با ۳۰.۳٪ بهوضوح بالاتر از رقباست.
✅اتوماسیون مرورگر (Browser Automation) → اینجا شگفتی رقم خورد: Grok-4 با ۴۱.۰٪ جلوتر از GPT-5 (۳۵.۹٪).
---
🟢 در میان مدلهای متنباز (Open-Source):
♻️مدل GLM-4.5 بهترین عملکرد را داشت با ۲۴.۷٪ SR و ۴۱.۲٪ AE.
♻️مدل Kimi-K2 با وجود تبلیغات زیاد دربارهی آموزش ویژه برای MCP، تنها به ۱۹٪ SR رسید.
---
⚠️ نکتهی مهم: حتی رهبر جدول یعنی GPT-5 هم نتوانست از مرز ۵۰٪ کیفیت نهایی عبور کند. این نشان میدهد که تعامل LLMها با سرورهای MCP هنوز راه زیادی تا بلوغ کامل دارد، و این وظایف واقعاً پیچیده و چندلایه هستند.
@rss_ai_ir
#هوش_مصنوعی #LLM #MCP #GPT5 #Benchmarks
❤15😁11🔥9👍8🎉8
This media is not supported in your browser
VIEW IN TELEGRAM
🆕 ابزار جدید Hugging Face: AI Sheets
⛔️جدولها حالا هوشمند شدند!
✳️مجموعه Hugging Face معرفی کرد AI Sheets، یک ابزار بدون کدنویسی برای ساخت و پردازش دادههای جدولی با کمک هوش مصنوعی:
🔹 ظاهر شبیه اکسل، اما به جای فرمولها از هزاران مدل استفاده میکند.
🔹 پشتیبانی از مدلهای OpenAI-API و مدلهای لوکال.
🔹 امکان افزودن ستون با پرامپتها، ویرایش دادهها به صورت دستی یا با لایک/دیسلایک.
🔹 قابل اجرا به صورت آنلاین یا لوکال (Docker / pnpm).
🔹 کاملاً اپنسورس (Apache-2.0) و قابل ادغام در هر پایپلاین.
🔹 مناسب برای کلاسیفیکیشن، تغییر دادهها، تولید دادههای مصنوعی و تست حس و vibe مدلها.
⚡️ نسخه آزمایشی در دسترس است.
#هوش_مصنوعی #بدون_کدنویسی #دیتاست #HuggingFace #LLM #AI
@rss_ai_ir
⛔️جدولها حالا هوشمند شدند!
✳️مجموعه Hugging Face معرفی کرد AI Sheets، یک ابزار بدون کدنویسی برای ساخت و پردازش دادههای جدولی با کمک هوش مصنوعی:
🔹 ظاهر شبیه اکسل، اما به جای فرمولها از هزاران مدل استفاده میکند.
🔹 پشتیبانی از مدلهای OpenAI-API و مدلهای لوکال.
🔹 امکان افزودن ستون با پرامپتها، ویرایش دادهها به صورت دستی یا با لایک/دیسلایک.
🔹 قابل اجرا به صورت آنلاین یا لوکال (Docker / pnpm).
🔹 کاملاً اپنسورس (Apache-2.0) و قابل ادغام در هر پایپلاین.
🔹 مناسب برای کلاسیفیکیشن، تغییر دادهها، تولید دادههای مصنوعی و تست حس و vibe مدلها.
⚡️ نسخه آزمایشی در دسترس است.
#هوش_مصنوعی #بدون_کدنویسی #دیتاست #HuggingFace #LLM #AI
@rss_ai_ir
❤4👍1👏1🙏1
🧠 مدل ThinkDial: کنترل باز و دقیق بر میزان استدلال در LLMها
پژوهشگران با معرفی ThinkDial اولین چارچوب بازمتن (Open-Recipe) برای کنترل سطح استدلال در مدلهای زبانی بزرگ (LLMها) را ارائه کردهاند. این چارچوب همان چیزی است که پیشتر در سیستمهای اختصاصی مثل GPT-OSS دیده بودیم، اما حالا به شکل باز در دسترس پژوهشگران قرار گرفته است.
🔑 ایده اصلی
به جای اینکه مدل همیشه با حداکثر توان استدلال کند (که هزینه محاسباتی بالایی دارد)، ThinkDial به شما اجازه میدهد بین حالتهای مختلف عملیات جابهجا شوید:
✳️حالت Medium: کاهش ۵۰٪ تعداد توکنها، با کمتر از ۱۰٪ افت کارایی
✳️حالت Low: کاهش ۷۵٪ توکنها، با کمتر از ۱۵٪ افت کارایی
✳️این یعنی شما میتوانید سطح استدلال را بر اساس نیاز پروژه (مثلاً چت سبک، تحلیل سریع یا پژوهش دقیق) تنظیم کنید.
⚡ نوآوریها
1. Budget-Mode Supervised Fine-tuning → تنظیم دقیق مدل برای سطوح مختلف مصرف محاسباتی.
2. Budget-Aware Reinforcement Learning → یادگیری تقویتی دومرحلهای برای هماهنگی دقت و هزینه.
3. Leak Penalty → مکانیزمی که مانع از آن میشود مدل استدلال را به بخش نهایی پاسخ منتقل کند (یعنی واقعاً تعداد توکنهای استدلال کاهش یابد).
📊 مزیتها برای صنعت
♻️کاهش هزینه اجرای مدلها در دیتاسنترها.
♻️امکان استقرار مدل روی دستگاههای با منابع محدود.
♻️انعطافپذیری بالا برای کاربردهای مختلف: از دستیارهای گفتوگویی سبک گرفته تا تحلیلهای پیچیده مالی یا علمی.
📄 مقاله: arXiv
🖥️ مدلها و کد: HuggingFace
#هوش_مصنوعی #LLM #بهینهسازی #استدلال_ماشین #ThinkDial
@rss_ai_ir
پژوهشگران با معرفی ThinkDial اولین چارچوب بازمتن (Open-Recipe) برای کنترل سطح استدلال در مدلهای زبانی بزرگ (LLMها) را ارائه کردهاند. این چارچوب همان چیزی است که پیشتر در سیستمهای اختصاصی مثل GPT-OSS دیده بودیم، اما حالا به شکل باز در دسترس پژوهشگران قرار گرفته است.
🔑 ایده اصلی
به جای اینکه مدل همیشه با حداکثر توان استدلال کند (که هزینه محاسباتی بالایی دارد)، ThinkDial به شما اجازه میدهد بین حالتهای مختلف عملیات جابهجا شوید:
✳️حالت Medium: کاهش ۵۰٪ تعداد توکنها، با کمتر از ۱۰٪ افت کارایی
✳️حالت Low: کاهش ۷۵٪ توکنها، با کمتر از ۱۵٪ افت کارایی
✳️این یعنی شما میتوانید سطح استدلال را بر اساس نیاز پروژه (مثلاً چت سبک، تحلیل سریع یا پژوهش دقیق) تنظیم کنید.
⚡ نوآوریها
1. Budget-Mode Supervised Fine-tuning → تنظیم دقیق مدل برای سطوح مختلف مصرف محاسباتی.
2. Budget-Aware Reinforcement Learning → یادگیری تقویتی دومرحلهای برای هماهنگی دقت و هزینه.
3. Leak Penalty → مکانیزمی که مانع از آن میشود مدل استدلال را به بخش نهایی پاسخ منتقل کند (یعنی واقعاً تعداد توکنهای استدلال کاهش یابد).
📊 مزیتها برای صنعت
♻️کاهش هزینه اجرای مدلها در دیتاسنترها.
♻️امکان استقرار مدل روی دستگاههای با منابع محدود.
♻️انعطافپذیری بالا برای کاربردهای مختلف: از دستیارهای گفتوگویی سبک گرفته تا تحلیلهای پیچیده مالی یا علمی.
📄 مقاله: arXiv
🖥️ مدلها و کد: HuggingFace
#هوش_مصنوعی #LLM #بهینهسازی #استدلال_ماشین #ThinkDial
@rss_ai_ir
👍1🔥1👏1