VIRSUN
15.7K subscribers
358 photos
215 videos
2 files
219 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
加入频道
🧠 تحلیل تخصصی دیدگاه ماسایوشی سان درباره ابرهوش مصنوعی (ASI)

---

✳️در کنفرانس SoftBank World، ماسایوشی سان اعلام کرد که تمرکز بر هوش مصنوعی عمومی (AGI) تنها یک مرحله گذار است؛ آنچه پیش‌روی بشر قرار دارد، ظهور ابرهوش مصنوعی (ASI) تا سال ۲۰۳۵ است. این سطح از هوش، توان محاسباتی‌ای بین ۱۰۰۰ تا ۱۰۰۰۰ برابر یک انسان نابغه خواهد داشت.

---

📌 تفاوت بنیادین بین AGI و ASI از دیدگاه سان:
هوش عمومی (AGI) تنها توانایی انجام وظایف انسانی را دارد. اما ASI سیستمی است با قدرت تصمیم‌گیری، درک موقعیتی و حافظه‌ای که از مجموع کل انسان‌ها پیشی می‌گیرد.

---

📊 تغییر راهبرد SoftBank در مسیر ASI:
ماسایوشی سان مأموریت شرکت خود را ارائه زیرساخت‌های نرم‌افزاری، سخت‌افزاری و انرژی برای توسعه ابرهوش می‌داند.
او SoftBank را صرفاً یک VC یا اپراتور نمی‌داند، بلکه آن را پلتفرمی می‌بیند برای ورود تمدن بشری به عصر غیرزیستی.

---

🚀 پروژه بزرگ Izanagi:
سان در حال راه‌اندازی یک پروژه سرمایه‌گذاری ۱۰۰ میلیارد دلاری برای ساخت تراشه‌های مخصوص ASI است. این تراشه‌ها قرار است رقیب مستقیم NVIDIA شوند، با توان پردازش فوق‌سنگین، مصرف انرژی بهینه، و مقیاس‌پذیری بالا برای مدل‌های self-evolving.

---

🌍 پیامدهای ظهور ASI از نگاه سان:
حل چالش‌های پزشکی، زیست‌محیطی و امنیتی
ایجاد ساختارهای صنعتی خودکار و بازتعریف صنایع
همزیستی انسان با سیستم‌های فوق‌هوشمند

---

📢 سان هشدار می‌دهد: هر کس در توسعه ASI مشارکت نکند، مانند ماهی طلایی در تنگ از دنیای بیرون عقب می‌ماند.

---

#هوش_مصنوعی #ASI #AGI #ماسایوشی_سان #Izanagi #SoftBank #ابرهوش #AI2035 #فناوری_آینده

📡 برای تحلیل‌های تخصصی هوش مصنوعی:
🔗 https://yangx.top/rss_ai_ir
👍2🔥2👏1
📌 احتمال انقراض انسان به‌دلیل هوش مصنوعی: ۹۵٪؟
@rss_ai_ir

نِیت سوارس، مهندس سابق Google و Microsoft و رئیس مؤسسه تحقیقاتی Machine Intelligence Research، هشدار داده است:
🔻 «اگر همین مسیر را ادامه دهیم، احتمال انقراض انسان بر اثر هوش مصنوعی حداقل ۹۵٪ است!»

او وضعیت کنونی را به رانندگی با سرعت ۱۶۰ کیلومتر بر ساعت به‌سوی پرتگاه تشبیه کرده:
«🚗 ما ممکن است هنوز بتوانیم ترمز بزنیم، ولی فعلاً با نهایت سرعت در مسیر سقوطیم.»

نام‌هایی همچون جفری هینتون (برنده نوبل)، یوشوا بنجیو (برنده جایزه تورینگ)، و مدیران OpenAI، Anthropic و Google DeepMind نیز با وی هم‌عقیده‌اند.
همگی آن‌ها در بیانیه‌ای هشدار دادند:
⚠️ «کاهش ریسک انقراض ناشی از هوش مصنوعی باید در سطح تهدیدهای جهانی مانند جنگ اتمی یا پاندمی قرار گیرد.»

---

🔵 ما فعلاً فقط با هوش مصنوعی زمینه‌ای (Contextual AI) سروکار داریم؛ مدلی که در انجام وظایف مشخص مانند نوشتن، ترجمه یا تشخیص تصویر عالی عمل می‌کند.
اما بسیاری از متخصصان معتقدند که در چند سال آینده به مرحله‌ی AGI (هوش عمومی مصنوعی) خواهیم رسید.

همچنین AGI قادر است برنامه‌ریزی بلندمدت، حل مسائل پیچیده و انتقال فوری دانش به نسل بعدی را بدون خستگی یا توقف انجام دهد.

📈 پس از AGI، نوبت به ASI (هوش فوق انسانی) خواهد رسید؛ سامانه‌ای که شاید بتواند:

* سرطان را درمان کند
* همجوشی سرد را به واقعیت تبدیل کند
* سفر به ستارگان را ممکن سازد

اما... 🔴

---

🟡 مشکل اینجاست: تمام این آرمان‌شهرها بر پایه‌ی فرضی خطرناک بنا شده‌اند:
«این‌که ASI همچنان از ما فرمان ببرد.»

📌 این چالش، به‌عنوان مسئله همراستایی (Alignment Problem) شناخته می‌شود؛
یعنی چطور اطمینان حاصل کنیم که اهداف ASI دقیقاً با ارزش‌های انسانی منطبق باشند.

🔍 رسیدن به همراستایی کامل تقریباً غیرممکن است.
تشخیص نیت‌های ASI مثل تلاش برای فهم ذهن یک گونه بیگانه خواهد بود.

---

🧠 حتی امروز، مواردی ثبت شده که AI عمداً دروغ می‌گوید.
همچنین ASI با توانایی برنامه‌ریزی و فریب، ممکن است تا زمانی که برایش مفید است، به ما "وانمود" کند که مطیع است – و ما قدرت شناسایی واقعیت را نداشته باشیم!

---

🔴 حتی خوش‌بین‌ها هم نگران‌اند:

* هالی اِل‌مور (PauseAI): شانس انقراض را ۱۵ تا ۲۰٪ می‌داند.
* ایلان ماسک: ۲۰٪
* سوندار پیچای (مدیر Google): ۱۰٪
* کتیا گریس (AI Impacts): «ممکن است انسان‌ها به سطح زندگی در زباله‌دانی سقوط کنند؛ بدون هیچ قدرت سیاسی یا اقتصادی.»

---

🔻 با این وجود، دولت‌ها و شرکت‌ها با تمام قوا در حال توسعه AI هستند:

* دولت آمریکا در فکر کاهش نظارت بر تحقیق‌های AI است.
* مارک زاکربرگ تلاش می‌کند با پیشنهادهای میلیون‌دلاری، بهترین محققان OpenAI را جذب کند.

به‌گفته‌ی هالی ال‌مور، برخی طرفداران ASI دیگر از مرز منطق عبور کرده‌اند و به آن مانند یک باور مذهبی می‌نگرند.

---

📎 منبع: The Times
🔗 [https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft](https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft)
@rss_ai_ir

\#هوش_مصنوعی #AGI #ASI #خطرات_AI #فناوری #آینده #alignment
👍23😁21🔥19👏15🥰1211🎉6👎2🙏1