VIRSUN
15.3K subscribers
448 photos
257 videos
2 files
266 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
加入频道
🎓 کدام کارت گرافیک برای آموزش شبکه‌های عصبی مناسب‌تر است؟

در دنیای یادگیری عمیق، کارت گرافیک فقط یک قطعه سخت‌افزاری نیست، بلکه قلب پردازش مدل‌هاست!
در ادامه نگاهی تخصصی به محبوب‌ترین GPUها برای آموزش شبکه‌های عصبی داریم:


---

🏢 مراکز تحقیقاتی و دیتاسنترها

🔹 NVIDIA A100
با حافظه بالا (۴۰ یا ۸۰ گیگ HBM2e)، قدرت فوق‌العاده FP16، و پشتیبانی از NVLink، انتخاب شماره یک برای آموزش مدل‌های بزرگ مثل LLMهاست.
🔹 H100 / H200
نسل جدیدتر A100 که در سال ۲۰۲۴-۲۰۲۵ توسط شرکت‌هایی مثل Meta و OpenAI در مقیاس بالا استفاده می‌شود.


---

💻 توسعه‌دهندگان مستقل و محققان

🔹 RTX 3080 / 3090 / 4090
محبوب بین پژوهشگران و فریلنسرها؛ قدرت بالا، قیمت منطقی و نصب ساده روی دسکتاپ.

🔹 RTX 5070 Ti / 5080
در سال ۲۰۲۵ مدل‌های جدیدتری با حافظه ۱۶ تا ۲۴ گیگ معرفی شدند که برای پروژه‌های بینایی ماشین و مدل‌های متوسط کاملاً کافی هستند.


---

📊 بازار و واقعیت

📌 بیش از ۹۰٪ پروژه‌های AI جهان روی کارت‌های NVIDIA آموزش داده می‌شن.
📌 سری‌های A100 و RTX همچنان صدرنشین بازار تحقیقات یادگیری ماشین هستند.
📌 پشتیبانی قوی CUDA و cuDNN از سوی NVIDIA دلیل اصلی این تسلط است.

---

#هوش_مصنوعی #یادگیری_عمیق #GPU #کارت_گرافیک #NVIDIA #DeepLearning #ML #AI #کدینگ #تحلیل_تخصصی

@rss_ai_ir
👍2🔥1🤣1
🇺🇸 مدیرعامل انویدیا: «اگه امروز ۲۰ ساله بودم، فیزیک می‌خوندم نه برنامه‌نویسی!»

🎙 جنسن هوانگ (Jensen Huang)، مدیرعامل افسانه‌ای Nvidia، در یک سخنرانی در پکن اعلام کرد:
«اگر امسال فارغ‌التحصیل می‌شدم، به جای رفتن به بوت‌کمپ‌های برنامه‌نویسی، رشته‌هایی مثل فیزیک یا شیمی می‌خوندم.»

🔍 دلیلش؟
هوش مصنوعی آینده فقط چت‌بات و تولید تصویر نیست — بلکه باید دنیا رو بفهمه:
گرانش، اصطکاک، اینرسی و روابط علت و معلولی.

🧠 هوانگ این مفهوم رو «هوش مصنوعی فیزیکی (Physical AI)» می‌نامد؛
جایی که هوش مصنوعی فقط نمی‌نویسه یا می‌کشه، بلکه اشیا رو حرکت می‌ده، درک می‌کنه، و از دنیای واقعی پیش‌بینی می‌کنه — مثلاً اینکه وقتی لیوان قهوه‌تو برمی‌داره، نشکنه!

🤖 وقتی این نوع AI رو در یک جسم فیزیکی مثل ربات قرار بدی، نتیجه می‌شه آینده‌ی رباتیک.

📈 این صحبت‌ها در حالی مطرح شد که انویدیا اولین شرکت ۴ تریلیون دلاری جهان شده.

🪙 @rss_ai_ir

#NVIDIA #رباتیک #هوش_مصنوعی #فیزیک #AI #PhysicalAI #آینده_فناوری #جنسن_هوانگ #ربات
👍2👏2🔥1
🧠 خلاصه‌سازی و جستجوی ویدیویی با ایجنت‌های چندمدلی از NVIDIA!

کمپانی NVIDIA یک ریپازیتوری فوق‌العاده منتشر کرده که به شما امکان می‌ده یک ایجنت هوشمند بسازید که:

🔍 ویدیو را فریم‌به‌فریم پردازش می‌کند
📝 خلاصه‌سازی انجام می‌دهد
📌 قابلیت جستجوی درون ویدیو دارد
💬 به سوالات مربوط به محتوای تصویری پاسخ می‌دهد

این پروژه یک Blueprint کامل برای ساخت ایجنت‌های چندمدلی است که می‌تواند برای حوزه‌های دیگر نیز به‌کار رود.

📌 از مدل‌ها و سرویس‌های زیر استفاده شده:

✳️مدل‌های متنی Nemotron و NeMo Retriever
✳️مدل‌های دیداری-زبانی (VLM)
✳️معماری‌های RAG برداری (Vector RAG) و گرافی (Graph-RAG)


📦 با وجود اینکه از NVIDIA NIM استفاده شده، به راحتی می‌تونید با مدل‌ها و APIهای دیگر جایگزین کنید!

🔗 پروژه را اینجا ببینید و تست کنید: https://github.com/NVIDIA-AI-Blueprints/video-search-and-summarization

#هوش‌_مصنوعی #AI_Agent #RAG #Nvidia
🆔 @rss_ai_ir
🔥2👍1👏1
⚙️💻 همه‌چیز درباره CUDA؛ معماری قدرتمند برای هوش مصنوعی و محاسبات موازی

معماری CUDA که توسط شرکت انویدیا توسعه یافته، بستری فراهم می‌کند تا برنامه‌نویسان بتوانند از توان موازی کارت‌های گرافیکی برای اجرای محاسبات سنگین بهره بگیرند. در واقع، بسیاری از پیشرفت‌های اخیر در یادگیری عمیق، پردازش تصویر و تحلیل داده‌های پیچیده بر پایه‌ی این معماری انجام می‌گیرد.
---

🌐اهمیت CUDA در حوزه هوش مصنوعی
قابلیت انجام هزاران محاسبه به صورت هم‌زمان روی GPU باعث شده آموزش مدل‌های یادگیری عمیق که روی CPU بسیار زمان‌بر هستند، با استفاده از CUDA به‌شدت تسریع شود. بیشتر فریم‌ورک‌های معروف مانند پای‌تورچ، تنسورفلو و JAX نیز به‌صورت پیش‌فرض از کتابخانه‌های مبتنی بر CUDA بهره می‌برند.

---

📌 چه زمانی باید سراغ CUDA برویم؟
❇️ زمانی که اجرای مدل یادگیری ماشین یا یادگیری عمیق روی CPU بسیار کند است.
❇️هنگام نیاز به پردازش سریع روی داده‌های تصویری، صوتی یا حجیم.
❇️ در شرایطی که قصد دارید اجرای مدل را در دستگاه‌های تعبیه‌شده (مانند ربات یا سیستم‌های هوشمند) بهینه‌سازی کنید.
❇️وقتی به کنترل دقیق‌تر منابع GPU و ساختار حافظه نیاز دارید.
❇️در پروژه‌هایی که محاسبات سنگین علمی، مهندسی یا تصویری دارند، استفاده از CUDA یک مزیت مهم محسوب می‌شود.

---

🧠 مفاهیم پایه در CUDA
❇️ کرنل (Kernel): تابعی که به‌صورت هم‌زمان روی تعداد زیادی thread اجرا می‌شود
❇️سلسله‌مراتب حافظه: شامل global، shared، constant و register
❇️ بلاک‌ها و گریدها: ساختار سازماندهی اجرای threadها
❇️ استریم‌ها (Streams): اجرای مستقل چند وظیفه روی GPU
❇️حافظه پین‌شده: تبادل سریع‌تر داده‌ها بین CPU و GPU

---

🔬 کاربردهای CUDA فراتر از یادگیری ماشین
❇️شبیه‌سازی‌های علمی در فیزیک، دینامیک سیالات و انرژی
❇️ پردازش تصویر، تحلیل پزشکی و رندر سه‌بعدی
❇️ رمزنگاری، بلاک‌چین و الگوریتم‌های گرافی
❇️سیستم‌های پیشنهاددهنده و تحلیل داده‌های بزرگ

---

🎓 مسیر پیشنهادی برای یادگیری CUDA
1. مطالعه مفاهیم محاسبات موازی و معماری GPU
2. تمرین عملی با زبان C مبتنی بر CUDA
3. اجرای پروژه‌هایی مانند ضرب ماتریس و الگوریتم‌های ساده
4. یادگیری نحوه بهینه‌سازی مصرف حافظه و کاهش زمان اجرا
5. استفاده از کتابخانه‌هایی مانند cuDNN و ترکیب آن با TensorFlow یا PyTorch
---

📘 برای شروع می‌توانید از وب‌سایت رسمی انویدیا بازدید کنید:
🔗 [developer.nvidia.com/cuda-toolkit](https://developer.nvidia.com/cuda-toolkit)
---
🧠 در دنیای هوش مصنوعی مدرن، دانستن CUDA نه‌تنها یک مهارت مفید بلکه یک امتیاز رقابتی است.

📡 @rss_ai_ir
#CUDA #NVIDIA #محاسبات_موازی #GPU #هوش_مصنوعی #یادگیری_ماشین #PyTorch #TensorFlow #CUDA_چیست
3👍1🙏1
انویدیا در کنفرانس SIGGRAPH 2025 از مفهوم محوری خود با عنوان «هوش مصنوعی فیزیکی» 🧠 رونمایی کرد — ترکیبی از هوش مصنوعی و گرافیک کامپیوتری برای ساخت سیستم‌هایی که می‌توانند در دنیای واقعی عمل کنند؛ از ربات‌ها 🤖 و خودروهای خودران 🚗 تا زیرساخت‌های هوشمند 🏙.

---

🟡 سخت‌افزار جدید با معماری Blackwell

کارت گرافیک دیتاسنتری RTX PRO 6000 Blackwell Server Edition برای سرورهای 2U که تا ۴۵ برابر عملکرد بیشتر و ۱۸ برابر بهره‌وری انرژی بهتر نسبت به سیستم‌های CPU‌محور دارد.
هسته‌های تنسوری نسل پنجم با پشتیبانی از FP4، سرعت استنتاج را تا ۶ برابر نسبت به مدل L40S افزایش می‌دهد.
دو کارت گرافیک کامپکت برای ورک‌استیشن‌ها:

همچنین RTX PRO 4000 SFF Edition — ‌۲.۵ برابر سریع‌تر در وظایف AI با همان توان ۷۰ وات ⚡️
همچنین RTX PRO 2000 Blackwell — ‌۱.۴ برابر سریع‌تر در نرم‌افزارهای CAD 📐

---

🟡 هوش مصنوعی فیزیکی در رباتیک

کتابخانه NuRec در Omniverse برای بازسازی محیط واقعی با داده‌های سنسور و تکنیک 3D Gaussian Splatting.
نسخه‌های جدید Isaac Sim 5.0 و Isaac Lab 2.2 به‌صورت متن‌باز در GitHub منتشر شده‌اند.
نمونه پروژه آمازون: بارگذاری مدل‌های CAD محصولات، تولید ۵۰هزار تصویر مصنوعی، آموزش مدل‌های AI و کنترل بازوهای رباتیک برای بازرسی کیفیت — بدون تغییر فیزیکی تجهیزات 🏭.

---

🟡 خانواده جدید مدل‌های هوش مصنوعی

توسعه سری Nemotron با مدل‌های Nemotron Nano 2 و Llama Nemotron Super 1.5 برای وظایف پیچیده در امنیت سایبری 🔐 و خدمات مشتری 💬.
معرفی مدل چندوجهی ۷B Cosmos Reason برای درک دنیای فیزیکی با دانش پیشینی، قوانین فیزیک و منطق.
استفاده Uber از Cosmos Reason برای تحلیل رفتار خودروهای خودران.

---

🟡 پلتفرم هوشمندسازی شهر و صنعت — Metropolis

ادغام با Cosmos Reason*، افزودن مدل‌های بینایی جدید به TAO Toolkit و امکانات تازه در Isaac Sim برای شبیه‌سازی سناریوهای نادر آموزشی.

---
@rss_ai_ir 🚀
#هوش_مصنوعی 🤖 #Nvidia 💻 #رباتیک 🦾 #گرافیک_کامپیوتری 🖥 #Blackwell 🚀 #SIGGRAPH2025
😁25🔥23🎉2220👍17
This media is not supported in your browser
VIEW IN TELEGRAM
📊 شکاف قدرت محاسباتی هوش مصنوعی؛ آمریکا جلوتر از چین

🇺🇸 ایالات متحده مالک بیشترین منابع محاسباتی جهان برای آموزش مدل‌های هوش مصنوعی است و همچنان قوی‌ترین کلسترها را توسعه می‌دهد.

🇨🇳 چین در تلاش برای جبران عقب‌ماندگی است:

♻️تا سال ۲۰۲۵ حدود ۹۸ میلیارد دلار سرمایه‌گذاری می‌کند (+۴۸٪ نسبت به ۲۰۲۴)
♻️۵۶ میلیارد از سمت دولت و ۲۴ میلیارد از سوی غول‌های اینترنتی
♻️محدودیت‌های صادرات GPUهای پیشرفته رشد سریع را دشوار کرده است

🔧 چالش سخت‌افزاری

♻️آمریکا صادرات GPUهای برتر Nvidia و AMD را ممنوع کرده
♻️چین روی Huawei Ascend 910C حساب باز کرده (نسخه دوبرابر 910B)؛ اما همچنان از نظر سرعت، حافظه و اکوسیستم نرم‌افزاری ضعیف‌تر است


📜 بازی سیاسی

♻️آمریکا فروش نسخه‌های ضعیف‌تر H20 و MI308 را مجاز کرده؛ اما ۱۵٪ از درآمد آن به خزانه آمریکا می‌رود
♻️این اجازه دسترسی به GPUهای متوسط را فراهم می‌کند، ولی تراشه‌های رده‌بالا همچنان ممنوع هستند


چرا آمریکا جلوتر است؟

♻️حتی H20 هم از Huawei 910B قوی‌تر است
♻️نرم‌افزار Nvidia بسیار بالغ‌تر است و کارایی واقعی را افزایش می‌دهد
♻️آموزش مدل‌های بزرگ در چین هنوز پرهزینه‌تر و زمان‌برتر از آمریکا است


#هوش_مصنوعی 🤖 #AI_policy 📜 #محاسبات_پیشرفته #Nvidia #Huawei #GPU #ایالات_متحده #چین
@rss_ai_ir
👍2🔥1👏1
انویدیا در آستانه عرضه تراشه‌ی جدید برای چین

🔹 شرکت Nvidia در حال توسعه تراشه‌ای تازه بر پایه معماری Blackwell با نام B30A است؛ تراشه‌ای که درست زیر محدودیت‌های صادراتی آمریکا طراحی شده اما همچنان می‌تواند جهش بزرگی برای شرکت‌های چینی در حوزه هوش مصنوعی ایجاد کند.

⚙️ ویژگی‌ها:

♻️حافظه پرسرعت (High-Bandwidth Memory)
♻️پشتیبانی از NVLink
♻️طراحی تک‌تراشه‌ای (Single-die)


توان پردازشی این تراشه تا حدود نصف قدرت B300 برآورد شده که بسیار قوی‌تر از تراشه‌های کنونی H20 است.

🗣️ ترامپ تراشه H20 را «منسوخ» خوانده و پیشنهاد کاهش محدودیت‌ها را مطرح کرده، اما نهادهای نظارتی نگران‌اند حتی نسخه‌های ضعیف‌تر هم به شتاب گرفتن رقابت چین در AI کمک کنند.

🎯 انویدیا حالا روی یک تیغ باریک حرکت می‌کند: باید به‌اندازه کافی برای بازار چین بفروشد، بدون آنکه موج جدیدی از ممنوعیت‌ها از واشنگتن کلید بخورد.

@rss_ai_ir
#Nvidia #تراشه #هوش_مصنوعی #Blackwell #چین #AI
👍8🥰7🎉6😁5👏4🔥32
🔥 چرا هنوز کسی نمی‌تواند به پای انویدیا برسد؟

این روزها زیاد اسم شرکت‌هایی مثل Groq ،Cerebras و Etched شنیده می‌شود که تراشه‌های اختصاصی برای اجرای مدل‌های زبانی می‌سازند. اما همان‌طور که دیلان پاتل (SemiAnalysis) گفته، رقابت جدی با انویدیا هنوز دور از واقعیت است. دلیلش روشن است:

🔹 انعطاف قیمتی – انویدیا به خاطر حاشیه سود بالا می‌تواند قیمت را کم کند و همچنان رقابتی باقی بماند.
🔹 زنجیره تأمین و مقیاس – حجم تولید بالا و شبکه‌ی تأمین جهانی باعث می‌شود هزینه ساخت هر GPU پایین‌تر باشد.
🔹 برگ برنده اصلی: نرم‌افزار – اکوسیستم CUDA و کتابخانه‌هایی مثل CuDNN ،CuBLAS و NCCL باعث می‌شوند سخت‌افزار انویدیا به بالاترین راندمان برسد.

📊 داده‌های SemiAnalysis نشان می‌دهد:
روی H100 (128 GPU)، آموزش یک مدل در مقیاس GPT-3 فقط با آپدیت نرم‌افزار در سال ۲۰۲۴، بهره‌وری MFU از ۳۴٪ به ۵۴٪ رسید (+۵۷٪ افزایش بدون تغییر سخت‌افزار!).

در BF16: از ۳۴٪ → ۵۴٪

در FP8: از ۲۹.۵٪ → ۳۹.۵٪


یعنی بهینه‌سازی نرم‌افزار می‌تواند ده‌ها درصد سود ایجاد کند؛ در حالی‌که نوآوری‌های معماری مدل معمولاً تنها ۳–۵٪ بهبود می‌دهند. برای شرکت‌هایی مثل OpenAI، Anthropic یا Google این یعنی صرفه‌جویی صدها میلیون دلاری.

نتیجه: مهندسانی که می‌توانند با بهینه‌سازی نرم‌افزار، حداکثر کارایی GPU را آزاد کنند، ارزشمندترین نیروهای صنعت هستند.

و اما درباره‌ی GB200 NVL72:

✳️فعلاً بیشتر برای استنتاج و دیباگ استفاده می‌شوند و آموزش مدل‌های بزرگ هنوز شروع نشده.

✳️هر رک ۷۲ GPU دارد اما تنها ۶۴ عدد فعالند و ۸ کارت به‌عنوان رزرو برای خرابی احتمالی کنار گذاشته می‌شوند.

✳️بهار امسال نسبت به H100 به‌صرفه نبودند، اما طبق پیش‌بینی انویدیا، تا پایان سال ۲.۷ برابر کارایی بیشتر به ازای هر دلار خواهند داشت.


💡 در یک جمله: رقابت شروع شده، اما ترکیب سخت‌افزار + نرم‌افزار + اکوسیستم فعلاً انویدیا را چند قدم جلوتر نگه داشته است.

#Nvidia #GPU #هوش_مصنوعی #H100 #GB200 #AI_Chip #SemiAnalysis
🎉10🔥5😁43👍2
🔥 خبر داغ برای علاقه‌مندان سخت‌افزار و یادگیری عمیق: نسخه چهارم FlashAttention در راه است!

🔹 تیم توسعه‌دهنده این الگوریتم در کنفرانس HotChips از FlashAttention 4 رونمایی کرد.
🔹 نسخه سوم مدت‌هاست که استاندارد صنعت شده، اما حالا نسخه چهارم روی معماری Blackwell بهینه‌سازی شده و روی توالی‌های طولانی حدود ۲۲٪ افزایش کارایی ارائه می‌دهد.
🔹 این یعنی محاسبات سریع‌تر، ارزان‌تر و کارآمدتر برای مدل‌های بزرگ زبانی و بینایی.

📊 تفاوت اصلی در بهینه‌سازی محاسبات Softmax و Exponent به همراه استفاده بهتر از Tensor Cores است.
📌 هنوز کد و مستندات رسمی منتشر نشده، اما نمودارهای اولیه نشان می‌دهد که در طول دنباله‌های بسیار بزرگ، این الگوریتم به‌طور چشمگیری از cuDNN جلو می‌زند.

به زبان ساده: FlashAttention 4 قراره مصرف منابع را کم کنه، سرعت رو بالا ببره و آموزش و استنتاج مدل‌های غول‌پیکر رو به‌صرفه‌تر کنه 🚀

#FlashAttention #هوش_مصنوعی #GPU #Blackwell #AI #DeepLearning #NVIDIA

@rss_ai_ir
👍1🔥1🙏1
⚡️ انویدیا نسل جدید پلتفرم‌های محاسباتی برای رباتیک را معرفی کرد — Jetson Thor

🔹 این سیستم به‌عنوان «مغز» ماشین‌های خودمختار معرفی شده که توانایی کار در دنیای واقعی رو دارن. قیمت این راهکارها از ۲۵۰۰ دلار شروع می‌شه.

🔸 در این رونمایی، علاوه بر کیت توسعه Jetson AGX Thor، ماژول‌های محاسباتی T5000 و T4000 هم معرفی شدن. طبق گفته انویدیا، این پلتفرم‌ها پایه‌ی «هوش مصنوعی فیزیکی» در حوزه‌هایی مثل تولید، لجستیک، سلامت و خرده‌فروشی خواهند بود.

🔹 جنسن هوانگ، مدیرعامل انویدیا، تأکید کرد که Jetson Thor با کارایی بالا و بهره‌وری انرژی طراحی شده تا میلیون‌ها توسعه‌دهنده بتونن ربات‌هایی بسازن که با جهان فیزیکی تعامل مستقیم دارن. مهم‌ترین ویژگی این نسل، امکان اجرای محلی چندین مدل مولد هوش مصنوعی به صورت همزمانه.

📌 مشخصات فنی اصلی

🟧 مبتنی بر معماری Blackwell، با پردازنده ۱۴ هسته‌ای Arm، GPU با ۲۵۶۰ هسته CUDA و ۱۲۸ گیگابایت حافظه. توان محاسباتی: ۲۰۷۰ TFLOPS با مصرف انرژی حداکثر ۱۳۰ وات (۷.۵ برابر قوی‌تر از نسل قبل، Jetson Orin).

🟧 ماژول Jetson T4000: نسخه اقتصادی‌تر با پردازنده ۱۲ هسته‌ای، GPU با ۱۵۳۶ هسته CUDA و ۶۴ گیگابایت حافظه. توان محاسباتی: ۱۲۰۰ TFLOPS.

این پلتفرم داده‌های سنسورها رو در لحظه پردازش می‌کنه و به ربات‌ها توانایی درک سریع محیط و واکنش بی‌درنگ می‌ده. همچنین به‌طور کامل با استک‌های نرم‌افزاری کلیدی انویدیا مثل Isaac، GR00T، Metropolis و Holoscan یکپارچه شده.

شرکت‌های بزرگی مثل Boston Dynamics، Amazon Robotics، Figure و Medtronic هم‌اکنون از این فناوری پشتیبانی می‌کنن.

#هوش_مصنوعی #رباتیک #NVIDIA #JetsonThor #AI_industrial

@rss_ai_ir
👍2🔥1👏1