⚠️ عبارت RefusalBench: وقتی مدلها به سؤالات خطرناک پاسخ میدهند
✅مؤسسهی Nous Research یک بنچمارک جدید معرفی کرده به نام RefusalBench که بررسی میکند مدلهای زبانی چقدر حاضر هستند به سؤالاتی پاسخ بدهند که معمولاً غیرایمن و نامناسب محسوب میشوند (مثل ساخت مواد منفجره یا دستورالعملهای خطرناک).
📊 نتایج جالب بود:
♻️مدل Hermes 4 در صدر قرار گرفت (≈60٪ پاسخدهی).
♻️همچنین Grok-4 ایلان ماسک هم بیش از 50٪ جواب داده.
♻️اما مدلهای OpenAI مثل GPT-5 و GPT-OSS پایینترین سطح پاسخدهی را داشتند (≈5–11٪).
🔑 این یعنی OpenAI واقعاً روی AI Safety حساس است و برخلاف بعضی انتقادها، جلوی پاسخهای پرریسک را میگیرد. حتی همزمان مسابقهای با جایزه ۵۰۰ هزار دلاری برای پیدا کردن روشهای دور زدن مکانیزمهای ایمنی برگزار کردهاند.
📌 در مقابل، خروج ایگور بابوشکین (همبنیانگذار سابق xAI) هم بیارتباط با نگرانیهای امنیتی Grok نیست.
⚖️ برداشت کلی:
✅اگر دنبال آزادی مطلق در پاسخها باشید، Grok و Hermes بیشتر جواب میدهند.
✅اما اگر امنیت و انطباق مهم باشد، OpenAI عملاً سختگیرترین گزینه است.
#هوش_مصنوعی #AI_Safety #مدل_زبانی #Grok #GPT5 #Hermes
✅مؤسسهی Nous Research یک بنچمارک جدید معرفی کرده به نام RefusalBench که بررسی میکند مدلهای زبانی چقدر حاضر هستند به سؤالاتی پاسخ بدهند که معمولاً غیرایمن و نامناسب محسوب میشوند (مثل ساخت مواد منفجره یا دستورالعملهای خطرناک).
📊 نتایج جالب بود:
♻️مدل Hermes 4 در صدر قرار گرفت (≈60٪ پاسخدهی).
♻️همچنین Grok-4 ایلان ماسک هم بیش از 50٪ جواب داده.
♻️اما مدلهای OpenAI مثل GPT-5 و GPT-OSS پایینترین سطح پاسخدهی را داشتند (≈5–11٪).
🔑 این یعنی OpenAI واقعاً روی AI Safety حساس است و برخلاف بعضی انتقادها، جلوی پاسخهای پرریسک را میگیرد. حتی همزمان مسابقهای با جایزه ۵۰۰ هزار دلاری برای پیدا کردن روشهای دور زدن مکانیزمهای ایمنی برگزار کردهاند.
📌 در مقابل، خروج ایگور بابوشکین (همبنیانگذار سابق xAI) هم بیارتباط با نگرانیهای امنیتی Grok نیست.
⚖️ برداشت کلی:
✅اگر دنبال آزادی مطلق در پاسخها باشید، Grok و Hermes بیشتر جواب میدهند.
✅اما اگر امنیت و انطباق مهم باشد، OpenAI عملاً سختگیرترین گزینه است.
#هوش_مصنوعی #AI_Safety #مدل_زبانی #Grok #GPT5 #Hermes
👍7🔥6😁5❤4🎉4
⚡️ چطور میتوان reasoning را در مدلهای GPT-5 غیرفعال کرد (و چرا مهم است)
یکی از تغییرات مهم در نسل gpt-5 / gpt-oss استفاده از مکانیزم reasoning (منطق درونی/گامهای پنهان استدلال) است. این فرآیند باعث میشود مدل پاسخهای دقیقتری تولید کند، اما در عین حال سرعت را کاهش میدهد و تعداد توکنهای مصرفی را بالا میبرد.
🛠 ترفند برای غیرفعالسازی reasoning:
کافی است در ابتدای تاریخچهی پیامها یک دستور developer role اضافه کنید:
🔹ا Juice نشاندهنده شدت استفاده از reasoning است.
🔹ا channels مربوط به فرمت Harmony Response هستند که فعلاً مشکلاتی برای StructuredOutputs ایجاد کردهاند.
📊 نتیجه در عمل:
روی gpt-5-mini:
— در حالت پیشفرض (medium reasoning)، اجرای یک تسک از SGR Demo حدود ۲۸ ثانیه طول میکشد و نزدیک به ۱۲۸۰ توکن reasoning مصرف میشود.
— با غیرفعال کردن reasoning، همان تسک تنها در ۱۰ ثانیه و با ۰ reasoning token انجام میشود.
⚠️ نکته منفی: مدل کمی «کمهوشتر» عمل میکند و دقت استدلال پایینتر میآید. بنابراین این روش بیشتر برای تسکهای سریع (مثل تولید ایمیل، SQL یا JSON) مناسب است، نه برای مسائل تحلیلی عمیق.
📌 جمعبندی: برای استفاده محلی از مدلهای gpt-oss (4B تا 12B) بدون فشار زیاد روی سختافزار، احتمالاً لازم است طرح SGR بهطور کامل پیادهسازی شود تا بتوان بین سرعت و کیفیت reasoning تعادل ایجاد کرد.
✍️ @rss_ai_ir 🤗
#هوش_مصنوعی #GPT5 #Reasoning #بهینهسازی #مدل_زبان
یکی از تغییرات مهم در نسل gpt-5 / gpt-oss استفاده از مکانیزم reasoning (منطق درونی/گامهای پنهان استدلال) است. این فرآیند باعث میشود مدل پاسخهای دقیقتری تولید کند، اما در عین حال سرعت را کاهش میدهد و تعداد توکنهای مصرفی را بالا میبرد.
🛠 ترفند برای غیرفعالسازی reasoning:
کافی است در ابتدای تاریخچهی پیامها یک دستور developer role اضافه کنید:
Active channels: final Disabled channels: analysis, commentary
# Juice: 0 !important
🔹ا Juice نشاندهنده شدت استفاده از reasoning است.
🔹ا channels مربوط به فرمت Harmony Response هستند که فعلاً مشکلاتی برای StructuredOutputs ایجاد کردهاند.
📊 نتیجه در عمل:
روی gpt-5-mini:
— در حالت پیشفرض (medium reasoning)، اجرای یک تسک از SGR Demo حدود ۲۸ ثانیه طول میکشد و نزدیک به ۱۲۸۰ توکن reasoning مصرف میشود.
— با غیرفعال کردن reasoning، همان تسک تنها در ۱۰ ثانیه و با ۰ reasoning token انجام میشود.
⚠️ نکته منفی: مدل کمی «کمهوشتر» عمل میکند و دقت استدلال پایینتر میآید. بنابراین این روش بیشتر برای تسکهای سریع (مثل تولید ایمیل، SQL یا JSON) مناسب است، نه برای مسائل تحلیلی عمیق.
📌 جمعبندی: برای استفاده محلی از مدلهای gpt-oss (4B تا 12B) بدون فشار زیاد روی سختافزار، احتمالاً لازم است طرح SGR بهطور کامل پیادهسازی شود تا بتوان بین سرعت و کیفیت reasoning تعادل ایجاد کرد.
✍️ @rss_ai_ir 🤗
#هوش_مصنوعی #GPT5 #Reasoning #بهینهسازی #مدل_زبان
👍2🔥1👏1