VIRSUN
14K subscribers
493 photos
285 videos
2 files
293 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
加入频道
📚 آموزش × هوش مصنوعی: تجربه واقعی اساتید با Claude

تحقیقات جدید Anthropic (تابستان ۲۰۲۵) نشان می‌دهد اساتید دانشگاه بیش از هر چیز از هوش مصنوعی به عنوان ابزار کمکی (augmentation) استفاده می‌کنند، نه جایگزین.

🔹 کاربردها در آموزش

♻️طراحی سریع‌تر سرفصل دروس و ماژول‌ها
♻️تنظیم سطح دشواری تمرین‌ها
♻️پیشنهاد روش‌های سنجش درک مطلب

کمک در تحقیقات: جمع‌آوری منابع، طرح آزمایش و ساختاربندی استدلال‌ها (با بررسی نهایی توسط انسان)


🔹 کجا اتوماسیون جدی‌تر است؟

کارهای پشتیبانی (برنامه‌ریزی، ایمیل، بودجه‌بندی)

ارزیابی: وسوسه‌انگیز است، اما بیشترین تردید همین‌جاست. چون عدالت، بافت و ظرافت را سخت می‌شود به AI سپرد.


🔹 لایه جدید: مینی‌ابزارها (Artifacts)
اساتید حالا در خود چت ابزارهای آموزشی کوچک می‌سازند:
— شبیه‌سازی و بازی‌های آموزشی
— تولید خودکار روبریک (معیارهای نمره‌دهی)
— داشبوردهای کوچک برای تجسم داده
— کمک‌یارهای موضوعی (از استوکیومتری تا گرامر)

🔹 چرا این تغییر مهم است؟

1. شخصی‌سازی واقعی‌تر: تمرین‌ها و توضیحات متناسب با سرعت و پیش‌زمینه دانشجو.

2. تغییر در ارزیابی: تمرکز بر توانایی تفکر نه فقط جواب درست.

3. نقش جدید استاد: طراح و کیوریتور تجربه یادگیری، نه صرفاً یک مدرس.


4. مهارت‌های آینده: دانشجوها یاد می‌گیرند به جای "مبارزه با AI"، از آن درست استفاده کنند — چارچوب بدهند، صحت را بررسی کنند و ترکیب نمایند.



🔹 نمونه عملی
به Claude موضوع ماژول و سطح دانشجویان را بدهید و بگویید:
«یک برنامه ۴ جلسه‌ای بده، برای هر جلسه یک فعالیت ۱۵ دقیقه‌ای، یک مینی‌پروژه یک‌هفته‌ای و ۳ سوال خودسنجی. در پایان هم روبریک ارزیابی.»
نتیجه یک پیش‌نویس استاندارد خواهد بود که به سرعت می‌توانید اصلاح کنید.

جمع‌بندی:
هوش مصنوعی در آموزش بهترین عملکرد را وقتی دارد که قدرت تفکر و طراحی استاد را تقویت کند. اتوماسیون برای کارهای تکراری و اداری عالی است، اما ارزیابی و سنجش نیاز به دقت و شفافیت انسانی دارد.

پرسش برای شما: مرز بین «کمک‌یار» و «خلبان خودکار» در آموزش کجاست؟ شما چطور از AI در تدریس یا یادگیری استفاده کرده‌اید؟

#آموزش #هوش_مصنوعی #دانشگاه #Claude #AI_in_Education

@rss_ai_ir
🎉10😁9🔥5👍31
This media is not supported in your browser
VIEW IN TELEGRAM
🟣 کلود در مرورگر کروم

شرکت Anthropic شروع به تست نسخه آزمایشی Claude for Chrome کرده است. این ابزار به کاربران اجازه می‌دهد کارهای روزمره خود را در مرورگر (مثل خرید بلیت، پر کردن فرم‌ها، ثبت سفارش‌ها و …) مستقیماً به کلاود بسپارند.

🔹 نکات کلیدی:

♻️در حال حاضر تست فقط برای ۱۰۰۰ کاربر Claude Max فعال شده است.

♻️عملکرد مشابه Computer Use است، اما تمرکز اصلی روی امنیت و کنترل بیشتر کاربر قرار دارد.

♻️هدف: تبدیل Claude به یک دستیار مرورگری مطمئن و کارآمد.


🔗 جزئیات بیشتر: Anthropic News

#Claude #Anthropic #هوش_مصنوعی #مرورگر #کروم
@rss_ai_ir
👍8😁6🎉6🔥32
⚠️ تغییرات جدید در سیاست‌های Anthropic برای آموزش Claude

♻️شرکت Anthropic اعلام کرد که از این پس، کاربران خودشان انتخاب می‌کنند که آیا چت‌ها و جلسات کدنویسی‌شان برای آموزش مدل Claude استفاده شود یا نه.

📌 نکات مهم:

♻️در صورت موافقت، داده‌ها می‌توانند تا ۵ سال ذخیره شوند (به‌جای ۳۰ روز).

♻️باید تصمیم‌گیری تا ۲۸ سپتامبر ۲۰۲۵ انجام شود. پذیرش تنظیمات بلافاصله فعال می‌شود.

♻️این قابلیت برای تمام پلن‌های Free، Pro و Max در دسترس است.


اگر نمی‌خواهید داده‌ها استفاده شوند:

هنگام نمایش pop-up کافیست تومبلر را روی Off بگذارید.

اگر اشتباهاً پذیرفتید، مسیر Settings → Privacy → Privacy Settings → Help improve Claude را باز کنید و گزینه را خاموش کنید.


ℹ️ توجه:

✳️می‌توانید هر زمان تصمیم‌تان را تغییر دهید، اما تنظیمات جدید فقط روی داده‌های آینده اعمال می‌شود. داده‌های قبلی حذف نمی‌شوند.

✳️این تغییرات فقط مربوط به کاربران عادی (Consumer Plans) است و شامل Claude for Work، Gov، Education و API (Bedrock, Vertex AI) نمی‌شود.

✳️در اپلیکیشن، یک pop-up با دکمه بزرگ Accept ظاهر می‌شود که تومبلر آن به‌طور پیش‌فرض روشن است.


⛔️همچنین Anthropic تاکید کرده که داده‌های حساس را فیلتر یا ماسک می‌کند و اطلاعات کاربران را نمی‌فروشد.

🔗 جزئیات بیشتر: anthropic.com/news/updates-to-our-consumer-terms

#Claude #هوش_مصنوعی #حریم_خصوصی

@rss_ai_ir
😁85👍5🎉4🔥3
📌 خبر مهم از Anthropic

🔻 شرکت Anthropic رسماً اعلام کرده که قصد دارد مدل‌های خود (مثل Claude) را روی داده‌های کاربران هم آموزش دهد. این داده‌ها شامل تاریخچه چت‌ها و سشن‌های کدنویسی می‌شود.

🗓️ همه کاربران تا تاریخ ۲۸ سپتامبر ۲۰۲۵ باید تصمیم بگیرند که آیا اجازه استفاده از داده‌هایشان برای آموزش داده شود یا خیر.

🔑 جزئیات مهم:

♻️به صورت پیش‌فرض داده‌های شما استفاده نمی‌شوند. برای اشتراک‌گذاری باید حتماً روی گزینه Accept کلیک کنید.

♻️این سیاست فقط شامل چت‌های جدید یا دوباره شروع‌شده می‌شود. داده‌های قدیمی مشمول آن نخواهند بود.

♻️اگر قبول کنید، داده‌هایتان می‌توانند تا ۵ سال ذخیره شوند.

♻️این تغییر فقط برای کاربران عادی (Free, Pro, Max) اعمال می‌شود. API، Claude for Work، Gov و Education شامل آن نیستند.

♻️همچنین Anthropic تأکید کرده که کاربران حق انتخاب دارند و داده‌های حساس فیلتر یا ماسک می‌شوند.


⚡️ جمع‌بندی: این موضوع دیر یا زود اتفاق می‌افتاد، اما حداقل Anthropic به‌طور شفاف اطلاع‌رسانی کرده و به کاربران اختیار داده است.

🔗 متن کامل خبر

#AI_news #Claude #Anthropic #حریم_خصوصی

@rss_ai_ir
👍9🎉74😁4🔥2