🧠 تحلیل تخصصی دیدگاه ماسایوشی سان درباره ابرهوش مصنوعی (ASI)
---
✳️در کنفرانس SoftBank World، ماسایوشی سان اعلام کرد که تمرکز بر هوش مصنوعی عمومی (AGI) تنها یک مرحله گذار است؛ آنچه پیشروی بشر قرار دارد، ظهور ابرهوش مصنوعی (ASI) تا سال ۲۰۳۵ است. این سطح از هوش، توان محاسباتیای بین ۱۰۰۰ تا ۱۰۰۰۰ برابر یک انسان نابغه خواهد داشت.
---
📌 تفاوت بنیادین بین AGI و ASI از دیدگاه سان:
هوش عمومی (AGI) تنها توانایی انجام وظایف انسانی را دارد. اما ASI سیستمی است با قدرت تصمیمگیری، درک موقعیتی و حافظهای که از مجموع کل انسانها پیشی میگیرد.
---
📊 تغییر راهبرد SoftBank در مسیر ASI:
ماسایوشی سان مأموریت شرکت خود را ارائه زیرساختهای نرمافزاری، سختافزاری و انرژی برای توسعه ابرهوش میداند.
او SoftBank را صرفاً یک VC یا اپراتور نمیداند، بلکه آن را پلتفرمی میبیند برای ورود تمدن بشری به عصر غیرزیستی.
---
🚀 پروژه بزرگ Izanagi:
سان در حال راهاندازی یک پروژه سرمایهگذاری ۱۰۰ میلیارد دلاری برای ساخت تراشههای مخصوص ASI است. این تراشهها قرار است رقیب مستقیم NVIDIA شوند، با توان پردازش فوقسنگین، مصرف انرژی بهینه، و مقیاسپذیری بالا برای مدلهای self-evolving.
---
🌍 پیامدهای ظهور ASI از نگاه سان:
✔ حل چالشهای پزشکی، زیستمحیطی و امنیتی
✔ ایجاد ساختارهای صنعتی خودکار و بازتعریف صنایع
✔ همزیستی انسان با سیستمهای فوقهوشمند
---
📢 سان هشدار میدهد: هر کس در توسعه ASI مشارکت نکند، مانند ماهی طلایی در تنگ از دنیای بیرون عقب میماند.
---
#هوش_مصنوعی #ASI #AGI #ماسایوشی_سان #Izanagi #SoftBank #ابرهوش #AI2035 #فناوری_آینده
📡 برای تحلیلهای تخصصی هوش مصنوعی:
🔗 https://yangx.top/rss_ai_ir
---
✳️در کنفرانس SoftBank World، ماسایوشی سان اعلام کرد که تمرکز بر هوش مصنوعی عمومی (AGI) تنها یک مرحله گذار است؛ آنچه پیشروی بشر قرار دارد، ظهور ابرهوش مصنوعی (ASI) تا سال ۲۰۳۵ است. این سطح از هوش، توان محاسباتیای بین ۱۰۰۰ تا ۱۰۰۰۰ برابر یک انسان نابغه خواهد داشت.
---
📌 تفاوت بنیادین بین AGI و ASI از دیدگاه سان:
هوش عمومی (AGI) تنها توانایی انجام وظایف انسانی را دارد. اما ASI سیستمی است با قدرت تصمیمگیری، درک موقعیتی و حافظهای که از مجموع کل انسانها پیشی میگیرد.
---
📊 تغییر راهبرد SoftBank در مسیر ASI:
ماسایوشی سان مأموریت شرکت خود را ارائه زیرساختهای نرمافزاری، سختافزاری و انرژی برای توسعه ابرهوش میداند.
او SoftBank را صرفاً یک VC یا اپراتور نمیداند، بلکه آن را پلتفرمی میبیند برای ورود تمدن بشری به عصر غیرزیستی.
---
🚀 پروژه بزرگ Izanagi:
سان در حال راهاندازی یک پروژه سرمایهگذاری ۱۰۰ میلیارد دلاری برای ساخت تراشههای مخصوص ASI است. این تراشهها قرار است رقیب مستقیم NVIDIA شوند، با توان پردازش فوقسنگین، مصرف انرژی بهینه، و مقیاسپذیری بالا برای مدلهای self-evolving.
---
🌍 پیامدهای ظهور ASI از نگاه سان:
✔ حل چالشهای پزشکی، زیستمحیطی و امنیتی
✔ ایجاد ساختارهای صنعتی خودکار و بازتعریف صنایع
✔ همزیستی انسان با سیستمهای فوقهوشمند
---
📢 سان هشدار میدهد: هر کس در توسعه ASI مشارکت نکند، مانند ماهی طلایی در تنگ از دنیای بیرون عقب میماند.
---
#هوش_مصنوعی #ASI #AGI #ماسایوشی_سان #Izanagi #SoftBank #ابرهوش #AI2035 #فناوری_آینده
📡 برای تحلیلهای تخصصی هوش مصنوعی:
🔗 https://yangx.top/rss_ai_ir
👍2🔥2👏1
📌 احتمال انقراض انسان بهدلیل هوش مصنوعی: ۹۵٪؟
@rss_ai_ir
نِیت سوارس، مهندس سابق Google و Microsoft و رئیس مؤسسه تحقیقاتی Machine Intelligence Research، هشدار داده است:
🔻 «اگر همین مسیر را ادامه دهیم، احتمال انقراض انسان بر اثر هوش مصنوعی حداقل ۹۵٪ است!»
او وضعیت کنونی را به رانندگی با سرعت ۱۶۰ کیلومتر بر ساعت بهسوی پرتگاه تشبیه کرده:
«🚗 ما ممکن است هنوز بتوانیم ترمز بزنیم، ولی فعلاً با نهایت سرعت در مسیر سقوطیم.»
✅ نامهایی همچون جفری هینتون (برنده نوبل)، یوشوا بنجیو (برنده جایزه تورینگ)، و مدیران OpenAI، Anthropic و Google DeepMind نیز با وی همعقیدهاند.
همگی آنها در بیانیهای هشدار دادند:
⚠️ «کاهش ریسک انقراض ناشی از هوش مصنوعی باید در سطح تهدیدهای جهانی مانند جنگ اتمی یا پاندمی قرار گیرد.»
---
🔵 ما فعلاً فقط با هوش مصنوعی زمینهای (Contextual AI) سروکار داریم؛ مدلی که در انجام وظایف مشخص مانند نوشتن، ترجمه یا تشخیص تصویر عالی عمل میکند.
اما بسیاری از متخصصان معتقدند که در چند سال آینده به مرحلهی AGI (هوش عمومی مصنوعی) خواهیم رسید.
همچنین AGI قادر است برنامهریزی بلندمدت، حل مسائل پیچیده و انتقال فوری دانش به نسل بعدی را بدون خستگی یا توقف انجام دهد.
📈 پس از AGI، نوبت به ASI (هوش فوق انسانی) خواهد رسید؛ سامانهای که شاید بتواند:
* سرطان را درمان کند
* همجوشی سرد را به واقعیت تبدیل کند
* سفر به ستارگان را ممکن سازد
اما... 🔴
---
🟡 مشکل اینجاست: تمام این آرمانشهرها بر پایهی فرضی خطرناک بنا شدهاند:
«اینکه ASI همچنان از ما فرمان ببرد.»
📌 این چالش، بهعنوان مسئله همراستایی (Alignment Problem) شناخته میشود؛
یعنی چطور اطمینان حاصل کنیم که اهداف ASI دقیقاً با ارزشهای انسانی منطبق باشند.
🔍 رسیدن به همراستایی کامل تقریباً غیرممکن است.
تشخیص نیتهای ASI مثل تلاش برای فهم ذهن یک گونه بیگانه خواهد بود.
---
🧠 حتی امروز، مواردی ثبت شده که AI عمداً دروغ میگوید.
همچنین ASI با توانایی برنامهریزی و فریب، ممکن است تا زمانی که برایش مفید است، به ما "وانمود" کند که مطیع است – و ما قدرت شناسایی واقعیت را نداشته باشیم!
---
🔴 حتی خوشبینها هم نگراناند:
* هالی اِلمور (PauseAI): شانس انقراض را ۱۵ تا ۲۰٪ میداند.
* ایلان ماسک: ۲۰٪
* سوندار پیچای (مدیر Google): ۱۰٪
* کتیا گریس (AI Impacts): «ممکن است انسانها به سطح زندگی در زبالهدانی سقوط کنند؛ بدون هیچ قدرت سیاسی یا اقتصادی.»
---
🔻 با این وجود، دولتها و شرکتها با تمام قوا در حال توسعه AI هستند:
* دولت آمریکا در فکر کاهش نظارت بر تحقیقهای AI است.
* مارک زاکربرگ تلاش میکند با پیشنهادهای میلیوندلاری، بهترین محققان OpenAI را جذب کند.
بهگفتهی هالی المور، برخی طرفداران ASI دیگر از مرز منطق عبور کردهاند و به آن مانند یک باور مذهبی مینگرند.
---
📎 منبع: The Times
🔗 [https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft](https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft)
@rss_ai_ir
\#هوش_مصنوعی #AGI #ASI #خطرات_AI #فناوری #آینده #alignment
@rss_ai_ir
نِیت سوارس، مهندس سابق Google و Microsoft و رئیس مؤسسه تحقیقاتی Machine Intelligence Research، هشدار داده است:
🔻 «اگر همین مسیر را ادامه دهیم، احتمال انقراض انسان بر اثر هوش مصنوعی حداقل ۹۵٪ است!»
او وضعیت کنونی را به رانندگی با سرعت ۱۶۰ کیلومتر بر ساعت بهسوی پرتگاه تشبیه کرده:
«🚗 ما ممکن است هنوز بتوانیم ترمز بزنیم، ولی فعلاً با نهایت سرعت در مسیر سقوطیم.»
✅ نامهایی همچون جفری هینتون (برنده نوبل)، یوشوا بنجیو (برنده جایزه تورینگ)، و مدیران OpenAI، Anthropic و Google DeepMind نیز با وی همعقیدهاند.
همگی آنها در بیانیهای هشدار دادند:
⚠️ «کاهش ریسک انقراض ناشی از هوش مصنوعی باید در سطح تهدیدهای جهانی مانند جنگ اتمی یا پاندمی قرار گیرد.»
---
🔵 ما فعلاً فقط با هوش مصنوعی زمینهای (Contextual AI) سروکار داریم؛ مدلی که در انجام وظایف مشخص مانند نوشتن، ترجمه یا تشخیص تصویر عالی عمل میکند.
اما بسیاری از متخصصان معتقدند که در چند سال آینده به مرحلهی AGI (هوش عمومی مصنوعی) خواهیم رسید.
همچنین AGI قادر است برنامهریزی بلندمدت، حل مسائل پیچیده و انتقال فوری دانش به نسل بعدی را بدون خستگی یا توقف انجام دهد.
📈 پس از AGI، نوبت به ASI (هوش فوق انسانی) خواهد رسید؛ سامانهای که شاید بتواند:
* سرطان را درمان کند
* همجوشی سرد را به واقعیت تبدیل کند
* سفر به ستارگان را ممکن سازد
اما... 🔴
---
🟡 مشکل اینجاست: تمام این آرمانشهرها بر پایهی فرضی خطرناک بنا شدهاند:
«اینکه ASI همچنان از ما فرمان ببرد.»
📌 این چالش، بهعنوان مسئله همراستایی (Alignment Problem) شناخته میشود؛
یعنی چطور اطمینان حاصل کنیم که اهداف ASI دقیقاً با ارزشهای انسانی منطبق باشند.
🔍 رسیدن به همراستایی کامل تقریباً غیرممکن است.
تشخیص نیتهای ASI مثل تلاش برای فهم ذهن یک گونه بیگانه خواهد بود.
---
🧠 حتی امروز، مواردی ثبت شده که AI عمداً دروغ میگوید.
همچنین ASI با توانایی برنامهریزی و فریب، ممکن است تا زمانی که برایش مفید است، به ما "وانمود" کند که مطیع است – و ما قدرت شناسایی واقعیت را نداشته باشیم!
---
🔴 حتی خوشبینها هم نگراناند:
* هالی اِلمور (PauseAI): شانس انقراض را ۱۵ تا ۲۰٪ میداند.
* ایلان ماسک: ۲۰٪
* سوندار پیچای (مدیر Google): ۱۰٪
* کتیا گریس (AI Impacts): «ممکن است انسانها به سطح زندگی در زبالهدانی سقوط کنند؛ بدون هیچ قدرت سیاسی یا اقتصادی.»
---
🔻 با این وجود، دولتها و شرکتها با تمام قوا در حال توسعه AI هستند:
* دولت آمریکا در فکر کاهش نظارت بر تحقیقهای AI است.
* مارک زاکربرگ تلاش میکند با پیشنهادهای میلیوندلاری، بهترین محققان OpenAI را جذب کند.
بهگفتهی هالی المور، برخی طرفداران ASI دیگر از مرز منطق عبور کردهاند و به آن مانند یک باور مذهبی مینگرند.
---
📎 منبع: The Times
🔗 [https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft](https://www.thetimes.com/us/news-today/article/why-how-ai-lead-end-humanity-nx8zjhgft)
@rss_ai_ir
\#هوش_مصنوعی #AGI #ASI #خطرات_AI #فناوری #آینده #alignment
👍23😁21🔥19👏15🥰12❤11🎉6👎2🙏1