VIRSUN
14.7K subscribers
472 photos
267 videos
2 files
278 links
📥 در کانال @rss_ai_ir هر روز: 🔹 جدیدترین خبرهای AI و فناوری
🔹 کانال توسط اساتید هوش مصنوعی مدیریت میشود
🗯اولویت ما هوش مصنوعی در صنعت میباشد اما نیم نگاهی به موارد دیگر در این زمینه داریم

ارتباط با ادمین 1:
@Ad1_rss_ai_ir
加入频道
نمودار رشد ماه‌به‌ماه بازدید از وب‌سایت‌های برتر GenAI نشان می‌دهد که Grok با رشد چشمگیر ۲۷.۲۷٪ در صدر قرار دارد و به‌وضوح Grok 4 تأثیر بزرگی بر افزایش استفاده کاربران گذاشته است.

📊 آمار تغییرات (جولای ۲۰۲۵ نسبت به ژوئن ۲۰۲۵):

* ChatGPT.com ۶.۰۳٪
* Gemini.google.com ۷.۸۸٪
* DeepSeek.com ۹.۱۷٪
* Grok.com ۲۷.۲۷٪
* Perplexity.ai ۸.۶۰٪
* Claude.ai ۱۰.۴۷٪

به نظر می‌رسد رقابت بین پلتفرم‌های هوش مصنوعی مولد روزبه‌روز شدیدتر می‌شود و Grok با آپدیت جدید خود جهش قابل توجهی داشته است.

#هوش_مصنوعی 🤖 #GenAI 📈 #Grok 🚀 #ChatGPT 💬 #Claude 🧠 #Gemini 🌐

@rss_ai_ir 🚀
👍1🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
مدل Claude اکنون قابلیت حافظه دائمی پیدا کرده است 🧠📌 — درست مثل ChatGPT، می‌تواند تمام گفتگوهای گذشته را به خاطر بسپارد.

🔹 کاربر می‌تواند به‌صورت دستی به یک موضوع قبلی اشاره کند یا مدل خودش آن را پیدا کرده و استفاده کند.
🔹 این ویژگی باعث می‌شود مکالمه‌ها پیوسته‌تر باشند و نیاز به تکرار اطلاعات کاهش یابد.

به‌نظر می‌رسد این قابلیت مدت‌ها بود که انتظارش می‌رفت و حالا تجربه کار با Claude را یک گام به تعامل طبیعی‌تر نزدیک‌تر می‌کند.

#هوش_مصنوعی 🤖 #Claude 🗣 #مدل_زبان_بزرگ 📚 #حافظه_دائمی 🧠 #چت_بات 💬
@rss_ai_ir 🚀
16👍14😁12🎉10🔥7🙏1
📚 ابزار رایگان شناسایی و انسانی‌سازی متن برای دانشجویان
@rss_ai_ir 🤖

ابزاری جدید معرفی شده که به دانشجویان کمک می‌کند محتوای تولیدشده توسط هوش مصنوعی را شناسایی، بازنویسی و انسانی‌سازی کنند — مناسب برای دور زدن سامانه‌های تشخیص AI و رفع مشکلات سرقت ادبی، درست در آستانه شروع ترم جدید.

ویژگی‌ها:
🔹 شناسایی متن تولیدشده توسط AI در هر نوع سند، تصویر یا ویدئو
🔹 نمایش مدل هوش مصنوعی استفاده‌شده و توضیح روند شناسایی
🔹 بازنویسی قدرتمند برای عبور از فیلترها و افزایش خلاقیت متن
🔹 امکان انتخاب موتور بازنویسی: DeepSeek، GPT-4 یا Claude
🔹 کاملاً رایگان برای استفاده

🎯 یک همراه مطالعاتی رایگان برای دانشجویان که هم سرعت و هم کیفیت کارتان را بالا می‌برد.

#هوش_مصنوعی #AI #دانشجو #متن #بازنویسی #تشخیص_AI #DeepSeek #GPT4 #Claude #سرقت_ادبی #ابزار_رایگان
👍1🥰1👏1
🤖 تغییرات اخیر در سیستم پرامپت کلود 4.0 نشان می‌دهد که Anthropic چطور با زبان طبیعی رفتار ربات را برنامه‌ریزی می‌کند.

🔹 مهم‌ترین نکات:

♻️حذف «هاتفیکس»‌های قدیمی که حالا مستقیم در فرایند آموزش مدل اعمال می‌شوند.
♻️تأکید بیشتر روی استفاده از قابلیت جستجو.
♻️گسترش سناریوهای استفاده از Artifacts.
♻️بهینه‌سازی کانتکست مخصوصاً در کدنویسی.
♻️اضافه شدن محافظت‌های امنیت سایبری جدید.


📊 پرامپت سیستمی کلود حدود ۲۳ هزار توکن دارد که تقریباً ۱۱٪ از کل پنجره‌ی کانتکست را می‌گیرد. این موضوع نشون می‌ده که چرخه‌ی توسعه کلود کاربرمحوره: اول رفتارهای مشاهده‌شده با تغییر پرامپت اصلاح می‌شوند و بعد در مرحله‌ی آموزش مدل، دائمی می‌گردند.

به زبان ساده: Anthropic اول با «دستورالعمل‌ها» واکنش سریع نشان می‌دهد و بعد آن تغییرات را در DNA مدل وارد می‌کند.

@rss_ai_ir | #Claude #Anthropic #AI
🔥138👍8🥰8🎉8😁7👏3
صنعت هوش مصنوعی در شوک بزرگ!

قاضی فدرال ویلیام الساپ اجازه داده میلیون‌ها نویسنده علیه شرکت Anthropic شکایت جمعی تنظیم کنن. اتهام: استفاده از کتاب‌های دزدی از کتابخانه‌های سایه‌ای برای آموزش مدل Claude.

📉 اگر دادگاه به نفع نویسنده‌ها رأی بده، جریمه‌ها می‌تونه به صدها میلیارد دلار برسه — عددی که حتی برای شرکتی با ارزش‌گذاری ۶۱.۵ میلیارد دلاری هم به معنای ورشکستگیه.

🔹 شرکت Anthropic بلافاصله درخواست تجدیدنظر داده و هشدار داده که چنین حکمی می‌تونه کل صنعت ژنراتیو AI رو نابود کنه.
🔹 این تنها شروع ماجراست: اوپن‌ای‌آی، متا و سایر غول‌های تکنولوژی هم با پرونده‌های مشابه مواجه هستن.

💡 نتیجه این پرونده‌ها تعیین می‌کنه آیا میشه همچنان روی داده‌های عمومی مدل‌ها رو آموزش داد یا اینکه شرکت‌ها باید برای هر متن استفاده‌شده هزینه پرداخت کنن.

🔗 جزئیات بیشتر: [اینجا]
#هوش_مصنوعی #Anthropic #کپی_رایت #Claude #AI
@rss_ai_ir
👍12🔥12😁97🥰5👏5🎉5
📊 نتایج تازه‌ی بنچمارک مدل‌ها؛ Grok-4، Opus 4.1 و Mistral Medium 3.1

به‌نظر میاد ایلان ماسک راه درستی رو انتخاب کرده 🚀
مدل Grok-4 هم پشتیبانی کامل از خروجی‌های ساختاریافته (Structured Outputs) داره و هم در بنچمارک جدید دقیقاً هم‌امتیاز با GPT-5 (medium reasoning) شده: ۷۹.۴٪ 🔝

🔹 نکات مهم:

امروز تعداد بیشتری از ارائه‌دهندگان مستقل خروجی ساختاریافته رو ساپورت می‌کنن:
Fireworks
Cerebras
Groq

علاوه بر این‌ها، ارائه‌دهندگان بزرگ مثل OpenAI (+Azure)، Mistral و Google (به‌صورت محدود) هم پشتیبانی دارن.


⚠️ مدل‌های GPT-OSS به‌دلیل فرمت جدید Harmony فعلاً با Structured Outputs پایدار کار نمی‌کنن؛ نه روی ارائه‌دهندگان و نه در ollama. باید صبر کرد.

📉 وضعیت بقیه:

علاوه بر این Anthropic Claude همچنان در رتبه‌های پایین وظایف صنعتی مونده. شرکت هم درباره‌ی پشتیبانی از constrained decoding یا Structured Outputs سکوت کرده. حتی Opus 4.1 نسبت به Opus 4.0 کمی ضعیف‌تر شده (رتبه ۲۲).

همچنین Mistral Medium 3.1 هم بدون جهش خاص؛ کمی پایین‌تر از نسخه 3.0 با رتبه‌ی ۳۸.


📌 جمع‌بندی: آینده رقابت مدل‌ها در صنعت به شدت به توانایی در خروجی‌های ساختاریافته وابسته خواهد بود.

#هوش_مصنوعی #Grok #GPT5 #Claude #Mistral
@rss_ai_ir
👏11🔥109🎉8😁5👍4🥰4
🤖 کلود اوپوس ۴ و ۴.۱ اولین مدل‌های جهان با قابلیت «پایان دادن به گفتگو»

از این پس اگر کاربری به شکل مداوم سعی کنه محتوای ممنوعه از مدل بگیره یا به توهین و سوءاستفاده ادامه بده (حتی نسبت به خود مدل)، Claude می‌تونه تصمیم بگیره گفتگو رو به‌طور کامل قطع کنه.

🔹 نکات کلیدی:

♻️این قابلیت فقط در موارد نادر و به‌عنوان آخرین راه‌حل فعال میشه؛ زمانی که همه‌ی تلاش‌ها برای هدایت گفتگو به مسیر سازنده شکست بخوره.

♻️بیشتر کاربران هرگز با این ویژگی مواجه نخواهند شد.

♻️این نخستین باره که یک مدل هوش مصنوعی عملاً «حق انتخاب» پیدا می‌کنه که ادامه‌ی گفتگو بده یا نه.


🔍 نکته‌ی جالب اینه که Anthropic میگه این تصمیم به معنای دادن «آگاهی» به AI نیست. با این حال، اصطلاح رفاه مدل (Model Welfare) رو معرفی کرده و حتی از مفاهیمی مثل «استرس مدل‌ها» یا واکنش‌های رفتاری آن‌ها در چارچوب ایمنی و الایمنت صحبت می‌کنه.

📌 جزئیات بیشتر: anthropic.com/research/end-subset-conversations

#هوش_مصنوعی #Claude #Anthropic #AI #امنیت
@rss_ai_ir
7👍7🔥6😁6🥰5👏3🎉3
🔹 در نیمه‌ی نخست سال ۲۰۲۵ دو شرکت OpenAI و Anthropic رشد خیره‌کننده‌ای را تجربه کردند و به‌نوعی وارد مرحله‌ی «ابررشد» شدند.

💰 درآمد سالانه (ARR):

* اوپن‌ای‌آی از ۶ میلیارد دلار به ۱۲ میلیارد دلار در عرض ۶ ماه رسید.
* آنتروپیک از ۱ میلیارد دلار به ۵ میلیارد دلار در ۷ ماه رشد کرد.

📊 مقایسه درآمدها:

* اوپن‌ای‌آی در بخش اشتراک‌ها (مصرف‌کننده و سازمانی) پیشتاز است.
* آنتروپیک در بخش API کمی جلوتر است: ۳.۱ میلیارد دلار در برابر ۲.۹ میلیارد دلار.
* نیمی از درآمد API آنتروپیک تنها از Cursor و GitHub Copilot به دست می‌آید.

👩‍💻 شاخص‌های استفاده:

* چت‌جی‌پی‌تی روزانه بیش از ۳ میلیارد پیام پردازش می‌کند (رشد ۴ برابری نسبت به سال گذشته).
* کلود‌کُد به ۴۰۰ میلیون دلار ARR رسیده و تنها در چند هفته دو برابر شده است.
* بسیاری از دستیارها به طور پیش‌فرض از Claude 4 Sonnet استفاده می‌کنند.

⚖️ با این حال اگر جی‌پی‌تی-۵ دوباره برتری مطلق پیدا کند، احتمال دارد Cursor و Copilot به سمت اوپن‌ای‌آی متمایل شوند و این می‌تواند موازنه‌ی بازار را یک‌شبه تغییر دهد.

🌐 @rss_ai_ir

#هوش_مصنوعی #OpenAI #Anthropic #ChatGPT #Claude #Cursor #Copilot #GPT5 #بازار
🎉31🔥24🥰22😁2119👏19👍18
This media is not supported in your browser
VIEW IN TELEGRAM
🔹 شرکت Anthropic دسترسی Claude Code را برای کاربران Team و Enterprise فعال کرد.

این نسخه شامل قابلیت‌های مدیریتی تازه است:
⚙️ کنترل‌های ادمین برای مدیریت هزینه
⚙️ تنظیم سیاست‌ها
⚙️ امکانات بیشتر برای مقیاس‌پذیری همراه با رشد مصرف

این تغییر به تیم‌ها کمک می‌کند راحت‌تر کدنویسی مبتنی بر Claude را در مقیاس سازمانی استفاده کنند.

#AI #Claude #Anthropic #Enterprise #Coding

@rss_ai_ir 🪙
🔥10👍76🎉6👏5🥰2😁2
📚 آموزش × هوش مصنوعی: تجربه واقعی اساتید با Claude

تحقیقات جدید Anthropic (تابستان ۲۰۲۵) نشان می‌دهد اساتید دانشگاه بیش از هر چیز از هوش مصنوعی به عنوان ابزار کمکی (augmentation) استفاده می‌کنند، نه جایگزین.

🔹 کاربردها در آموزش

♻️طراحی سریع‌تر سرفصل دروس و ماژول‌ها
♻️تنظیم سطح دشواری تمرین‌ها
♻️پیشنهاد روش‌های سنجش درک مطلب

کمک در تحقیقات: جمع‌آوری منابع، طرح آزمایش و ساختاربندی استدلال‌ها (با بررسی نهایی توسط انسان)


🔹 کجا اتوماسیون جدی‌تر است؟

کارهای پشتیبانی (برنامه‌ریزی، ایمیل، بودجه‌بندی)

ارزیابی: وسوسه‌انگیز است، اما بیشترین تردید همین‌جاست. چون عدالت، بافت و ظرافت را سخت می‌شود به AI سپرد.


🔹 لایه جدید: مینی‌ابزارها (Artifacts)
اساتید حالا در خود چت ابزارهای آموزشی کوچک می‌سازند:
— شبیه‌سازی و بازی‌های آموزشی
— تولید خودکار روبریک (معیارهای نمره‌دهی)
— داشبوردهای کوچک برای تجسم داده
— کمک‌یارهای موضوعی (از استوکیومتری تا گرامر)

🔹 چرا این تغییر مهم است؟

1. شخصی‌سازی واقعی‌تر: تمرین‌ها و توضیحات متناسب با سرعت و پیش‌زمینه دانشجو.

2. تغییر در ارزیابی: تمرکز بر توانایی تفکر نه فقط جواب درست.

3. نقش جدید استاد: طراح و کیوریتور تجربه یادگیری، نه صرفاً یک مدرس.


4. مهارت‌های آینده: دانشجوها یاد می‌گیرند به جای "مبارزه با AI"، از آن درست استفاده کنند — چارچوب بدهند، صحت را بررسی کنند و ترکیب نمایند.



🔹 نمونه عملی
به Claude موضوع ماژول و سطح دانشجویان را بدهید و بگویید:
«یک برنامه ۴ جلسه‌ای بده، برای هر جلسه یک فعالیت ۱۵ دقیقه‌ای، یک مینی‌پروژه یک‌هفته‌ای و ۳ سوال خودسنجی. در پایان هم روبریک ارزیابی.»
نتیجه یک پیش‌نویس استاندارد خواهد بود که به سرعت می‌توانید اصلاح کنید.

جمع‌بندی:
هوش مصنوعی در آموزش بهترین عملکرد را وقتی دارد که قدرت تفکر و طراحی استاد را تقویت کند. اتوماسیون برای کارهای تکراری و اداری عالی است، اما ارزیابی و سنجش نیاز به دقت و شفافیت انسانی دارد.

پرسش برای شما: مرز بین «کمک‌یار» و «خلبان خودکار» در آموزش کجاست؟ شما چطور از AI در تدریس یا یادگیری استفاده کرده‌اید؟

#آموزش #هوش_مصنوعی #دانشگاه #Claude #AI_in_Education

@rss_ai_ir
🎉10😁9🔥5👍31
This media is not supported in your browser
VIEW IN TELEGRAM
🟣 کلود در مرورگر کروم

شرکت Anthropic شروع به تست نسخه آزمایشی Claude for Chrome کرده است. این ابزار به کاربران اجازه می‌دهد کارهای روزمره خود را در مرورگر (مثل خرید بلیت، پر کردن فرم‌ها، ثبت سفارش‌ها و …) مستقیماً به کلاود بسپارند.

🔹 نکات کلیدی:

♻️در حال حاضر تست فقط برای ۱۰۰۰ کاربر Claude Max فعال شده است.

♻️عملکرد مشابه Computer Use است، اما تمرکز اصلی روی امنیت و کنترل بیشتر کاربر قرار دارد.

♻️هدف: تبدیل Claude به یک دستیار مرورگری مطمئن و کارآمد.


🔗 جزئیات بیشتر: Anthropic News

#Claude #Anthropic #هوش_مصنوعی #مرورگر #کروم
@rss_ai_ir
👍8😁6🎉6🔥32
⚠️ تغییرات جدید در سیاست‌های Anthropic برای آموزش Claude

♻️شرکت Anthropic اعلام کرد که از این پس، کاربران خودشان انتخاب می‌کنند که آیا چت‌ها و جلسات کدنویسی‌شان برای آموزش مدل Claude استفاده شود یا نه.

📌 نکات مهم:

♻️در صورت موافقت، داده‌ها می‌توانند تا ۵ سال ذخیره شوند (به‌جای ۳۰ روز).

♻️باید تصمیم‌گیری تا ۲۸ سپتامبر ۲۰۲۵ انجام شود. پذیرش تنظیمات بلافاصله فعال می‌شود.

♻️این قابلیت برای تمام پلن‌های Free، Pro و Max در دسترس است.


اگر نمی‌خواهید داده‌ها استفاده شوند:

هنگام نمایش pop-up کافیست تومبلر را روی Off بگذارید.

اگر اشتباهاً پذیرفتید، مسیر Settings → Privacy → Privacy Settings → Help improve Claude را باز کنید و گزینه را خاموش کنید.


ℹ️ توجه:

✳️می‌توانید هر زمان تصمیم‌تان را تغییر دهید، اما تنظیمات جدید فقط روی داده‌های آینده اعمال می‌شود. داده‌های قبلی حذف نمی‌شوند.

✳️این تغییرات فقط مربوط به کاربران عادی (Consumer Plans) است و شامل Claude for Work، Gov، Education و API (Bedrock, Vertex AI) نمی‌شود.

✳️در اپلیکیشن، یک pop-up با دکمه بزرگ Accept ظاهر می‌شود که تومبلر آن به‌طور پیش‌فرض روشن است.


⛔️همچنین Anthropic تاکید کرده که داده‌های حساس را فیلتر یا ماسک می‌کند و اطلاعات کاربران را نمی‌فروشد.

🔗 جزئیات بیشتر: anthropic.com/news/updates-to-our-consumer-terms

#Claude #هوش_مصنوعی #حریم_خصوصی

@rss_ai_ir
😁85👍5🎉4🔥3
📌 خبر مهم از Anthropic

🔻 شرکت Anthropic رسماً اعلام کرده که قصد دارد مدل‌های خود (مثل Claude) را روی داده‌های کاربران هم آموزش دهد. این داده‌ها شامل تاریخچه چت‌ها و سشن‌های کدنویسی می‌شود.

🗓️ همه کاربران تا تاریخ ۲۸ سپتامبر ۲۰۲۵ باید تصمیم بگیرند که آیا اجازه استفاده از داده‌هایشان برای آموزش داده شود یا خیر.

🔑 جزئیات مهم:

♻️به صورت پیش‌فرض داده‌های شما استفاده نمی‌شوند. برای اشتراک‌گذاری باید حتماً روی گزینه Accept کلیک کنید.

♻️این سیاست فقط شامل چت‌های جدید یا دوباره شروع‌شده می‌شود. داده‌های قدیمی مشمول آن نخواهند بود.

♻️اگر قبول کنید، داده‌هایتان می‌توانند تا ۵ سال ذخیره شوند.

♻️این تغییر فقط برای کاربران عادی (Free, Pro, Max) اعمال می‌شود. API، Claude for Work، Gov و Education شامل آن نیستند.

♻️همچنین Anthropic تأکید کرده که کاربران حق انتخاب دارند و داده‌های حساس فیلتر یا ماسک می‌شوند.


⚡️ جمع‌بندی: این موضوع دیر یا زود اتفاق می‌افتاد، اما حداقل Anthropic به‌طور شفاف اطلاع‌رسانی کرده و به کاربران اختیار داده است.

🔗 متن کامل خبر

#AI_news #Claude #Anthropic #حریم_خصوصی

@rss_ai_ir
👍9🎉74😁4🔥2