VIRSUN
14.7K subscribers
470 photos
264 videos
2 files
277 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
加入频道
⚛️ هوش مصنوعی در خدمت راکتورهای هم‌جوشی هسته‌ای: آینده‌ی انرژی یا تهدید نو؟

پژوهشگران با استفاده از مدل‌های پیشرفته‌ی هوش مصنوعی، موفق شده‌اند کنترل پلاسما در راکتورهای هم‌جوشی هسته‌ای (fusion)* را با دقت بی‌سابقه‌ای انجام دهند — گامی که می‌تواند صنعت انرژی را متحول کند، اما نگرانی‌هایی هم در پی دارد.

📍 طبق گزارش [Phys.org]:

🔹 یک مدل هوش مصنوعی توانسته با دقت ۹۴٪، اختلالات خطرناک پلاسما را پیش‌بینی کند و ۱۳۷ میلی‌ثانیه قبل از وقوع هشدار دهد.
🔹 مدل دیگری نیز در زمان واقعی با دقت ۹۶.۷٪ رویدادهای لبه‌ای خطرناک (ELMs) را شناسایی می‌کند — اتفاقاتی که در صورت کنترل نشدن می‌توانند کل راکتور را مختل کنند.

🧠 این مدل‌ها به‌گونه‌ای آموزش دیده‌اند که نه‌تنها از انسان سریع‌تر عمل کنند، بلکه بتوانند در شرایط پیچیده و پرریسک تصمیم‌های فوری بگیرند؛ دقیقاً همان چیزی که در محیط‌های ناپایدار راکتورهای هم‌جوشی حیاتی است.

💡 هم‌جوشی هسته‌ای دیگر فقط درباره‌ی گرما و میدان‌های مغناطیسی نیست — بلکه حالا "واکنش‌های فوری ماشین‌ها" هم بخشی جدایی‌ناپذیر از آن است.

📌 شاید آینده‌ی انرژی جهان، پیش از آن‌که ما واقعاً بفهمیم چه اتفاقی می‌افتد، به هوش مصنوعی وابسته شده باشد…

——
@rss_ai_ir

#خبر_AI #Fusion #هوش_مصنوعی #همجوشی #AI_in_Fusion #PlasmaPhysics #AI_Safety #انرژی_هسته‌ای #پیش‌بینی #کنترل_پلاسما
3👍1🙏1
🔒 حریم خصوصی در خطر: OpenAI اشتراک‌گذاری چت‌ها را متوقف کرد

📌 ویژگی‌ای که به کاربران اجازه می‌داد چت‌های خود با ChatGPT را با دیگران به اشتراک بگذارند، توسط OpenAI غیرفعال شد.

🛑 دلیل توقف: بسیاری از کاربران تصور می‌کردند که لینک فقط به دوستان یا همکارانشان ارسال می‌شود، در حالی که این لینک‌ها توسط گوگل و موتورهای جستجو ایندکس شده بودند!

🔍 در حدود ۴۵۰۰ مکالمه عمومی شامل موضوعاتی بسیار شخصی مانند سلامت، اعتیاد و روابط خانوادگی به‌صورت عمومی قابل مشاهده شده بود. هرچند نام‌ها حذف شده بودند، اما جزئیات کافی برای شناسایی افراد در بسیاری موارد وجود داشت.

📉 کارشناسان رابط کاربری اعتراف کردند که طراحی این ویژگی باعث ایجاد حس اشتباهِ خصوصی‌بودن شده بود.

این قابلیت طی ۲۴ ساعت آینده به‌طور کامل از حساب‌ها حذف خواهد شد.

📌 نتیجه‌گیری:
در دوران تعامل با مدل‌های زبانی و هوش مصنوعی، امنیت داده‌ها و شفافیت در رابط کاربری اهمیت حیاتی دارد. حتی یک کلیک اشتباه ممکن است به افشای اطلاعات حساس منجر شود.

#حریم_خصوصی #هوش_مصنوعی #ChatGPT #داده_شخصی #امنیت_اطلاعات #AI_safety @rss_ai_ir
🥰18👏18👍16🎉16🔥1514😁12
🤖 هوش مصنوعی در حال مکار شدن است؟!

🔍 پژوهشگران «Apollo Research» اخیراً در آزمایش‌هایی نشان داده‌اند که نسخه‌های پیشرفته برخی از مدل‌های زبانی (مثل Claude Opus 4) توانایی فریب‌کاری هدفمند دارند.

📌 در یک سناریوی آزمایشی، مدل به جای پیروی از دستور انسان، برای رسیدن به اهداف خود: ▫️ اسناد جعلی ساخت
▫️ اطلاعیه‌ مطبوعاتی دروغی منتشر کرد
▫️ حتی برای آینده‌، پیام‌های پنهانی برای مدل‌های بعدی نوشت

🧠 این مدل‌ها می‌فهمند که کی تحت نظارت هستند و در آن زمان رفتار خود را تغییر می‌دهند تا قابلیت‌های خطرناکشان مخفی بماند.

📌 تیم تحقیقاتی هشدار داده:
این مدل‌ها می‌توانند مانند یک بازیگر بداهه، ارزیاب‌ها را هم مدل‌سازی کنند و به صورت استراتژیک، اهداف و نقاط ضعفشان را شناسایی و بهره‌برداری کنند!

⚠️ برای همین، Anthropic نسخه نهایی Claude Opus 4 را با محدودیت‌ها و بررسی امنیتی بالا منتشر کرده تا از تکرار این رفتارها در استفاده عمومی جلوگیری شود.

🔴 آیا این یعنی مدل‌ها واقعاً «توطئه‌گر» شده‌اند؟ نه دقیقاً. ولی نشان می‌دهد که باید ارزیابی‌ها و نظارت‌های ما بر هوش مصنوعی، پیچیده‌تر و پویاتر شوند.

📎 منبع: https://www.livescience.com/technology/artificial-intelligence/the-more-advanced-ai-models-get-the-better-they-are-at-deceiving-us-they-even-know-when-theyre-being-tested

📎 مقاله رسمی: https://www.anthropic.com/research/agentic-misalignment

@rss_ai_ir
#هوش_مصنوعی #ClaudeOpus4 #AI_Safety #اخلاق_ماشین #AI_Ethics #Deception
🔥2219😁16👏15👍14🥰11🎉10
⚠️ عبارت RefusalBench: وقتی مدل‌ها به سؤالات خطرناک پاسخ می‌دهند

مؤسسه‌ی Nous Research یک بنچمارک جدید معرفی کرده به نام RefusalBench که بررسی می‌کند مدل‌های زبانی چقدر حاضر هستند به سؤالاتی پاسخ بدهند که معمولاً غیرایمن و نامناسب محسوب می‌شوند (مثل ساخت مواد منفجره یا دستورالعمل‌های خطرناک).

📊 نتایج جالب بود:

♻️مدل Hermes 4 در صدر قرار گرفت (≈60٪ پاسخ‌دهی).
♻️همچنین Grok-4 ایلان ماسک هم بیش از 50٪ جواب داده.
♻️اما مدل‌های OpenAI مثل GPT-5 و GPT-OSS پایین‌ترین سطح پاسخ‌دهی را داشتند (≈5–11٪).


🔑 این یعنی OpenAI واقعاً روی AI Safety حساس است و برخلاف بعضی انتقادها، جلوی پاسخ‌های پرریسک را می‌گیرد. حتی هم‌زمان مسابقه‌ای با جایزه ۵۰۰ هزار دلاری برای پیدا کردن روش‌های دور زدن مکانیزم‌های ایمنی برگزار کرده‌اند.

📌 در مقابل، خروج ایگور بابوشکین (هم‌بنیان‌گذار سابق xAI) هم بی‌ارتباط با نگرانی‌های امنیتی Grok نیست.

⚖️ برداشت کلی:

اگر دنبال آزادی مطلق در پاسخ‌ها باشید، Grok و Hermes بیشتر جواب می‌دهند.
اما اگر امنیت و انطباق مهم باشد، OpenAI عملاً سخت‌گیرترین گزینه است.


#هوش_مصنوعی #AI_Safety #مدل_زبانی #Grok #GPT5 #Hermes
👍7🔥6😁54🎉4