❌ صنعت هوش مصنوعی در شوک بزرگ!
قاضی فدرال ویلیام الساپ اجازه داده میلیونها نویسنده علیه شرکت Anthropic شکایت جمعی تنظیم کنن. اتهام: استفاده از کتابهای دزدی از کتابخانههای سایهای برای آموزش مدل Claude.
📉 اگر دادگاه به نفع نویسندهها رأی بده، جریمهها میتونه به صدها میلیارد دلار برسه — عددی که حتی برای شرکتی با ارزشگذاری ۶۱.۵ میلیارد دلاری هم به معنای ورشکستگیه.
🔹 شرکت Anthropic بلافاصله درخواست تجدیدنظر داده و هشدار داده که چنین حکمی میتونه کل صنعت ژنراتیو AI رو نابود کنه.
🔹 این تنها شروع ماجراست: اوپنایآی، متا و سایر غولهای تکنولوژی هم با پروندههای مشابه مواجه هستن.
💡 نتیجه این پروندهها تعیین میکنه آیا میشه همچنان روی دادههای عمومی مدلها رو آموزش داد یا اینکه شرکتها باید برای هر متن استفادهشده هزینه پرداخت کنن.
🔗 جزئیات بیشتر: [اینجا]
#هوش_مصنوعی #Anthropic #کپی_رایت #Claude #AI
@rss_ai_ir
قاضی فدرال ویلیام الساپ اجازه داده میلیونها نویسنده علیه شرکت Anthropic شکایت جمعی تنظیم کنن. اتهام: استفاده از کتابهای دزدی از کتابخانههای سایهای برای آموزش مدل Claude.
📉 اگر دادگاه به نفع نویسندهها رأی بده، جریمهها میتونه به صدها میلیارد دلار برسه — عددی که حتی برای شرکتی با ارزشگذاری ۶۱.۵ میلیارد دلاری هم به معنای ورشکستگیه.
🔹 شرکت Anthropic بلافاصله درخواست تجدیدنظر داده و هشدار داده که چنین حکمی میتونه کل صنعت ژنراتیو AI رو نابود کنه.
🔹 این تنها شروع ماجراست: اوپنایآی، متا و سایر غولهای تکنولوژی هم با پروندههای مشابه مواجه هستن.
💡 نتیجه این پروندهها تعیین میکنه آیا میشه همچنان روی دادههای عمومی مدلها رو آموزش داد یا اینکه شرکتها باید برای هر متن استفادهشده هزینه پرداخت کنن.
🔗 جزئیات بیشتر: [اینجا]
#هوش_مصنوعی #Anthropic #کپی_رایت #Claude #AI
@rss_ai_ir
👍12🔥12😁9❤7🥰5👏5🎉5
📊 نتایج تازهی بنچمارک مدلها؛ Grok-4، Opus 4.1 و Mistral Medium 3.1
بهنظر میاد ایلان ماسک راه درستی رو انتخاب کرده 🚀
مدل Grok-4 هم پشتیبانی کامل از خروجیهای ساختاریافته (Structured Outputs) داره و هم در بنچمارک جدید دقیقاً همامتیاز با GPT-5 (medium reasoning) شده: ۷۹.۴٪ 🔝
🔹 نکات مهم:
امروز تعداد بیشتری از ارائهدهندگان مستقل خروجی ساختاریافته رو ساپورت میکنن:
✅ Fireworks
✅ Cerebras
✅ Groq
علاوه بر اینها، ارائهدهندگان بزرگ مثل OpenAI (+Azure)، Mistral و Google (بهصورت محدود) هم پشتیبانی دارن.
⚠️ مدلهای GPT-OSS بهدلیل فرمت جدید Harmony فعلاً با Structured Outputs پایدار کار نمیکنن؛ نه روی ارائهدهندگان و نه در ollama. باید صبر کرد.
📉 وضعیت بقیه:
علاوه بر این Anthropic Claude همچنان در رتبههای پایین وظایف صنعتی مونده. شرکت هم دربارهی پشتیبانی از constrained decoding یا Structured Outputs سکوت کرده. حتی Opus 4.1 نسبت به Opus 4.0 کمی ضعیفتر شده (رتبه ۲۲).
همچنین Mistral Medium 3.1 هم بدون جهش خاص؛ کمی پایینتر از نسخه 3.0 با رتبهی ۳۸.
📌 جمعبندی: آینده رقابت مدلها در صنعت به شدت به توانایی در خروجیهای ساختاریافته وابسته خواهد بود.
#هوش_مصنوعی #Grok #GPT5 #Claude #Mistral
@rss_ai_ir
بهنظر میاد ایلان ماسک راه درستی رو انتخاب کرده 🚀
مدل Grok-4 هم پشتیبانی کامل از خروجیهای ساختاریافته (Structured Outputs) داره و هم در بنچمارک جدید دقیقاً همامتیاز با GPT-5 (medium reasoning) شده: ۷۹.۴٪ 🔝
🔹 نکات مهم:
امروز تعداد بیشتری از ارائهدهندگان مستقل خروجی ساختاریافته رو ساپورت میکنن:
✅ Fireworks
✅ Cerebras
✅ Groq
علاوه بر اینها، ارائهدهندگان بزرگ مثل OpenAI (+Azure)، Mistral و Google (بهصورت محدود) هم پشتیبانی دارن.
⚠️ مدلهای GPT-OSS بهدلیل فرمت جدید Harmony فعلاً با Structured Outputs پایدار کار نمیکنن؛ نه روی ارائهدهندگان و نه در ollama. باید صبر کرد.
📉 وضعیت بقیه:
علاوه بر این Anthropic Claude همچنان در رتبههای پایین وظایف صنعتی مونده. شرکت هم دربارهی پشتیبانی از constrained decoding یا Structured Outputs سکوت کرده. حتی Opus 4.1 نسبت به Opus 4.0 کمی ضعیفتر شده (رتبه ۲۲).
همچنین Mistral Medium 3.1 هم بدون جهش خاص؛ کمی پایینتر از نسخه 3.0 با رتبهی ۳۸.
📌 جمعبندی: آینده رقابت مدلها در صنعت به شدت به توانایی در خروجیهای ساختاریافته وابسته خواهد بود.
#هوش_مصنوعی #Grok #GPT5 #Claude #Mistral
@rss_ai_ir
👏11🔥10❤9🎉8😁5👍4🥰4
🤖 کلود اوپوس ۴ و ۴.۱ اولین مدلهای جهان با قابلیت «پایان دادن به گفتگو»
✅از این پس اگر کاربری به شکل مداوم سعی کنه محتوای ممنوعه از مدل بگیره یا به توهین و سوءاستفاده ادامه بده (حتی نسبت به خود مدل)، Claude میتونه تصمیم بگیره گفتگو رو بهطور کامل قطع کنه.
🔹 نکات کلیدی:
♻️این قابلیت فقط در موارد نادر و بهعنوان آخرین راهحل فعال میشه؛ زمانی که همهی تلاشها برای هدایت گفتگو به مسیر سازنده شکست بخوره.
♻️بیشتر کاربران هرگز با این ویژگی مواجه نخواهند شد.
♻️این نخستین باره که یک مدل هوش مصنوعی عملاً «حق انتخاب» پیدا میکنه که ادامهی گفتگو بده یا نه.
🔍 نکتهی جالب اینه که Anthropic میگه این تصمیم به معنای دادن «آگاهی» به AI نیست. با این حال، اصطلاح رفاه مدل (Model Welfare) رو معرفی کرده و حتی از مفاهیمی مثل «استرس مدلها» یا واکنشهای رفتاری آنها در چارچوب ایمنی و الایمنت صحبت میکنه.
📌 جزئیات بیشتر: anthropic.com/research/end-subset-conversations
#هوش_مصنوعی #Claude #Anthropic #AI #امنیت
@rss_ai_ir
✅از این پس اگر کاربری به شکل مداوم سعی کنه محتوای ممنوعه از مدل بگیره یا به توهین و سوءاستفاده ادامه بده (حتی نسبت به خود مدل)، Claude میتونه تصمیم بگیره گفتگو رو بهطور کامل قطع کنه.
🔹 نکات کلیدی:
♻️این قابلیت فقط در موارد نادر و بهعنوان آخرین راهحل فعال میشه؛ زمانی که همهی تلاشها برای هدایت گفتگو به مسیر سازنده شکست بخوره.
♻️بیشتر کاربران هرگز با این ویژگی مواجه نخواهند شد.
♻️این نخستین باره که یک مدل هوش مصنوعی عملاً «حق انتخاب» پیدا میکنه که ادامهی گفتگو بده یا نه.
🔍 نکتهی جالب اینه که Anthropic میگه این تصمیم به معنای دادن «آگاهی» به AI نیست. با این حال، اصطلاح رفاه مدل (Model Welfare) رو معرفی کرده و حتی از مفاهیمی مثل «استرس مدلها» یا واکنشهای رفتاری آنها در چارچوب ایمنی و الایمنت صحبت میکنه.
📌 جزئیات بیشتر: anthropic.com/research/end-subset-conversations
#هوش_مصنوعی #Claude #Anthropic #AI #امنیت
@rss_ai_ir
❤7👍7🔥6😁6🥰5👏3🎉3
🔹 در نیمهی نخست سال ۲۰۲۵ دو شرکت OpenAI و Anthropic رشد خیرهکنندهای را تجربه کردند و بهنوعی وارد مرحلهی «ابررشد» شدند.
💰 درآمد سالانه (ARR):
* اوپنایآی از ۶ میلیارد دلار به ۱۲ میلیارد دلار در عرض ۶ ماه رسید.
* آنتروپیک از ۱ میلیارد دلار به ۵ میلیارد دلار در ۷ ماه رشد کرد.
📊 مقایسه درآمدها:
* اوپنایآی در بخش اشتراکها (مصرفکننده و سازمانی) پیشتاز است.
* آنتروپیک در بخش API کمی جلوتر است: ۳.۱ میلیارد دلار در برابر ۲.۹ میلیارد دلار.
* نیمی از درآمد API آنتروپیک تنها از Cursor و GitHub Copilot به دست میآید.
👩💻 شاخصهای استفاده:
* چتجیپیتی روزانه بیش از ۳ میلیارد پیام پردازش میکند (رشد ۴ برابری نسبت به سال گذشته).
* کلودکُد به ۴۰۰ میلیون دلار ARR رسیده و تنها در چند هفته دو برابر شده است.
* بسیاری از دستیارها به طور پیشفرض از Claude 4 Sonnet استفاده میکنند.
⚖️ با این حال اگر جیپیتی-۵ دوباره برتری مطلق پیدا کند، احتمال دارد Cursor و Copilot به سمت اوپنایآی متمایل شوند و این میتواند موازنهی بازار را یکشبه تغییر دهد.
🌐 @rss_ai_ir
#هوش_مصنوعی #OpenAI #Anthropic #ChatGPT #Claude #Cursor #Copilot #GPT5 #بازار
💰 درآمد سالانه (ARR):
* اوپنایآی از ۶ میلیارد دلار به ۱۲ میلیارد دلار در عرض ۶ ماه رسید.
* آنتروپیک از ۱ میلیارد دلار به ۵ میلیارد دلار در ۷ ماه رشد کرد.
📊 مقایسه درآمدها:
* اوپنایآی در بخش اشتراکها (مصرفکننده و سازمانی) پیشتاز است.
* آنتروپیک در بخش API کمی جلوتر است: ۳.۱ میلیارد دلار در برابر ۲.۹ میلیارد دلار.
* نیمی از درآمد API آنتروپیک تنها از Cursor و GitHub Copilot به دست میآید.
👩💻 شاخصهای استفاده:
* چتجیپیتی روزانه بیش از ۳ میلیارد پیام پردازش میکند (رشد ۴ برابری نسبت به سال گذشته).
* کلودکُد به ۴۰۰ میلیون دلار ARR رسیده و تنها در چند هفته دو برابر شده است.
* بسیاری از دستیارها به طور پیشفرض از Claude 4 Sonnet استفاده میکنند.
⚖️ با این حال اگر جیپیتی-۵ دوباره برتری مطلق پیدا کند، احتمال دارد Cursor و Copilot به سمت اوپنایآی متمایل شوند و این میتواند موازنهی بازار را یکشبه تغییر دهد.
🌐 @rss_ai_ir
#هوش_مصنوعی #OpenAI #Anthropic #ChatGPT #Claude #Cursor #Copilot #GPT5 #بازار
🎉31🔥24🥰22😁21❤19👏19👍18
This media is not supported in your browser
VIEW IN TELEGRAM
🔹 شرکت Anthropic دسترسی Claude Code را برای کاربران Team و Enterprise فعال کرد.
این نسخه شامل قابلیتهای مدیریتی تازه است:
⚙️ کنترلهای ادمین برای مدیریت هزینه
⚙️ تنظیم سیاستها
⚙️ امکانات بیشتر برای مقیاسپذیری همراه با رشد مصرف
این تغییر به تیمها کمک میکند راحتتر کدنویسی مبتنی بر Claude را در مقیاس سازمانی استفاده کنند.
#AI #Claude #Anthropic #Enterprise #Coding
@rss_ai_ir 🪙
این نسخه شامل قابلیتهای مدیریتی تازه است:
⚙️ کنترلهای ادمین برای مدیریت هزینه
⚙️ تنظیم سیاستها
⚙️ امکانات بیشتر برای مقیاسپذیری همراه با رشد مصرف
این تغییر به تیمها کمک میکند راحتتر کدنویسی مبتنی بر Claude را در مقیاس سازمانی استفاده کنند.
#AI #Claude #Anthropic #Enterprise #Coding
@rss_ai_ir 🪙
🔥10👍7❤6🎉6👏5🥰2😁2
📚 آموزش × هوش مصنوعی: تجربه واقعی اساتید با Claude
تحقیقات جدید Anthropic (تابستان ۲۰۲۵) نشان میدهد اساتید دانشگاه بیش از هر چیز از هوش مصنوعی به عنوان ابزار کمکی (augmentation) استفاده میکنند، نه جایگزین.
🔹 کاربردها در آموزش
♻️طراحی سریعتر سرفصل دروس و ماژولها
♻️تنظیم سطح دشواری تمرینها
♻️پیشنهاد روشهای سنجش درک مطلب
کمک در تحقیقات: جمعآوری منابع، طرح آزمایش و ساختاربندی استدلالها (با بررسی نهایی توسط انسان)
🔹 کجا اتوماسیون جدیتر است؟
کارهای پشتیبانی (برنامهریزی، ایمیل، بودجهبندی)
ارزیابی: وسوسهانگیز است، اما بیشترین تردید همینجاست. چون عدالت، بافت و ظرافت را سخت میشود به AI سپرد.
🔹 لایه جدید: مینیابزارها (Artifacts)
اساتید حالا در خود چت ابزارهای آموزشی کوچک میسازند:
— شبیهسازی و بازیهای آموزشی
— تولید خودکار روبریک (معیارهای نمرهدهی)
— داشبوردهای کوچک برای تجسم داده
— کمکیارهای موضوعی (از استوکیومتری تا گرامر)
🔹 چرا این تغییر مهم است؟
1. شخصیسازی واقعیتر: تمرینها و توضیحات متناسب با سرعت و پیشزمینه دانشجو.
2. تغییر در ارزیابی: تمرکز بر توانایی تفکر نه فقط جواب درست.
3. نقش جدید استاد: طراح و کیوریتور تجربه یادگیری، نه صرفاً یک مدرس.
4. مهارتهای آینده: دانشجوها یاد میگیرند به جای "مبارزه با AI"، از آن درست استفاده کنند — چارچوب بدهند، صحت را بررسی کنند و ترکیب نمایند.
🔹 نمونه عملی
به Claude موضوع ماژول و سطح دانشجویان را بدهید و بگویید:
«یک برنامه ۴ جلسهای بده، برای هر جلسه یک فعالیت ۱۵ دقیقهای، یک مینیپروژه یکهفتهای و ۳ سوال خودسنجی. در پایان هم روبریک ارزیابی.»
نتیجه یک پیشنویس استاندارد خواهد بود که به سرعت میتوانید اصلاح کنید.
⚡ جمعبندی:
هوش مصنوعی در آموزش بهترین عملکرد را وقتی دارد که قدرت تفکر و طراحی استاد را تقویت کند. اتوماسیون برای کارهای تکراری و اداری عالی است، اما ارزیابی و سنجش نیاز به دقت و شفافیت انسانی دارد.
❓ پرسش برای شما: مرز بین «کمکیار» و «خلبان خودکار» در آموزش کجاست؟ شما چطور از AI در تدریس یا یادگیری استفاده کردهاید؟
#آموزش #هوش_مصنوعی #دانشگاه #Claude #AI_in_Education
@rss_ai_ir
تحقیقات جدید Anthropic (تابستان ۲۰۲۵) نشان میدهد اساتید دانشگاه بیش از هر چیز از هوش مصنوعی به عنوان ابزار کمکی (augmentation) استفاده میکنند، نه جایگزین.
🔹 کاربردها در آموزش
♻️طراحی سریعتر سرفصل دروس و ماژولها
♻️تنظیم سطح دشواری تمرینها
♻️پیشنهاد روشهای سنجش درک مطلب
کمک در تحقیقات: جمعآوری منابع، طرح آزمایش و ساختاربندی استدلالها (با بررسی نهایی توسط انسان)
🔹 کجا اتوماسیون جدیتر است؟
کارهای پشتیبانی (برنامهریزی، ایمیل، بودجهبندی)
ارزیابی: وسوسهانگیز است، اما بیشترین تردید همینجاست. چون عدالت، بافت و ظرافت را سخت میشود به AI سپرد.
🔹 لایه جدید: مینیابزارها (Artifacts)
اساتید حالا در خود چت ابزارهای آموزشی کوچک میسازند:
— شبیهسازی و بازیهای آموزشی
— تولید خودکار روبریک (معیارهای نمرهدهی)
— داشبوردهای کوچک برای تجسم داده
— کمکیارهای موضوعی (از استوکیومتری تا گرامر)
🔹 چرا این تغییر مهم است؟
1. شخصیسازی واقعیتر: تمرینها و توضیحات متناسب با سرعت و پیشزمینه دانشجو.
2. تغییر در ارزیابی: تمرکز بر توانایی تفکر نه فقط جواب درست.
3. نقش جدید استاد: طراح و کیوریتور تجربه یادگیری، نه صرفاً یک مدرس.
4. مهارتهای آینده: دانشجوها یاد میگیرند به جای "مبارزه با AI"، از آن درست استفاده کنند — چارچوب بدهند، صحت را بررسی کنند و ترکیب نمایند.
🔹 نمونه عملی
به Claude موضوع ماژول و سطح دانشجویان را بدهید و بگویید:
«یک برنامه ۴ جلسهای بده، برای هر جلسه یک فعالیت ۱۵ دقیقهای، یک مینیپروژه یکهفتهای و ۳ سوال خودسنجی. در پایان هم روبریک ارزیابی.»
نتیجه یک پیشنویس استاندارد خواهد بود که به سرعت میتوانید اصلاح کنید.
⚡ جمعبندی:
هوش مصنوعی در آموزش بهترین عملکرد را وقتی دارد که قدرت تفکر و طراحی استاد را تقویت کند. اتوماسیون برای کارهای تکراری و اداری عالی است، اما ارزیابی و سنجش نیاز به دقت و شفافیت انسانی دارد.
❓ پرسش برای شما: مرز بین «کمکیار» و «خلبان خودکار» در آموزش کجاست؟ شما چطور از AI در تدریس یا یادگیری استفاده کردهاید؟
#آموزش #هوش_مصنوعی #دانشگاه #Claude #AI_in_Education
@rss_ai_ir
🎉10😁9🔥5👍3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🟣 کلود در مرورگر کروم
شرکت Anthropic شروع به تست نسخه آزمایشی Claude for Chrome کرده است. این ابزار به کاربران اجازه میدهد کارهای روزمره خود را در مرورگر (مثل خرید بلیت، پر کردن فرمها، ثبت سفارشها و …) مستقیماً به کلاود بسپارند.
🔹 نکات کلیدی:
♻️در حال حاضر تست فقط برای ۱۰۰۰ کاربر Claude Max فعال شده است.
♻️عملکرد مشابه Computer Use است، اما تمرکز اصلی روی امنیت و کنترل بیشتر کاربر قرار دارد.
♻️هدف: تبدیل Claude به یک دستیار مرورگری مطمئن و کارآمد.
🔗 جزئیات بیشتر: Anthropic News
#Claude #Anthropic #هوش_مصنوعی #مرورگر #کروم
@rss_ai_ir
شرکت Anthropic شروع به تست نسخه آزمایشی Claude for Chrome کرده است. این ابزار به کاربران اجازه میدهد کارهای روزمره خود را در مرورگر (مثل خرید بلیت، پر کردن فرمها، ثبت سفارشها و …) مستقیماً به کلاود بسپارند.
🔹 نکات کلیدی:
♻️در حال حاضر تست فقط برای ۱۰۰۰ کاربر Claude Max فعال شده است.
♻️عملکرد مشابه Computer Use است، اما تمرکز اصلی روی امنیت و کنترل بیشتر کاربر قرار دارد.
♻️هدف: تبدیل Claude به یک دستیار مرورگری مطمئن و کارآمد.
🔗 جزئیات بیشتر: Anthropic News
#Claude #Anthropic #هوش_مصنوعی #مرورگر #کروم
@rss_ai_ir
👍8😁6🎉6🔥3❤2
⚠️ تغییرات جدید در سیاستهای Anthropic برای آموزش Claude
♻️شرکت Anthropic اعلام کرد که از این پس، کاربران خودشان انتخاب میکنند که آیا چتها و جلسات کدنویسیشان برای آموزش مدل Claude استفاده شود یا نه.
📌 نکات مهم:
♻️در صورت موافقت، دادهها میتوانند تا ۵ سال ذخیره شوند (بهجای ۳۰ روز).
♻️باید تصمیمگیری تا ۲۸ سپتامبر ۲۰۲۵ انجام شود. پذیرش تنظیمات بلافاصله فعال میشود.
♻️این قابلیت برای تمام پلنهای Free، Pro و Max در دسترس است.
❌ اگر نمیخواهید دادهها استفاده شوند:
هنگام نمایش pop-up کافیست تومبلر را روی Off بگذارید.
اگر اشتباهاً پذیرفتید، مسیر Settings → Privacy → Privacy Settings → Help improve Claude را باز کنید و گزینه را خاموش کنید.
ℹ️ توجه:
✳️میتوانید هر زمان تصمیمتان را تغییر دهید، اما تنظیمات جدید فقط روی دادههای آینده اعمال میشود. دادههای قبلی حذف نمیشوند.
✳️این تغییرات فقط مربوط به کاربران عادی (Consumer Plans) است و شامل Claude for Work، Gov، Education و API (Bedrock, Vertex AI) نمیشود.
✳️در اپلیکیشن، یک pop-up با دکمه بزرگ Accept ظاهر میشود که تومبلر آن بهطور پیشفرض روشن است.
⛔️همچنین Anthropic تاکید کرده که دادههای حساس را فیلتر یا ماسک میکند و اطلاعات کاربران را نمیفروشد.
🔗 جزئیات بیشتر: anthropic.com/news/updates-to-our-consumer-terms
#Claude #هوش_مصنوعی #حریم_خصوصی
@rss_ai_ir
♻️شرکت Anthropic اعلام کرد که از این پس، کاربران خودشان انتخاب میکنند که آیا چتها و جلسات کدنویسیشان برای آموزش مدل Claude استفاده شود یا نه.
📌 نکات مهم:
♻️در صورت موافقت، دادهها میتوانند تا ۵ سال ذخیره شوند (بهجای ۳۰ روز).
♻️باید تصمیمگیری تا ۲۸ سپتامبر ۲۰۲۵ انجام شود. پذیرش تنظیمات بلافاصله فعال میشود.
♻️این قابلیت برای تمام پلنهای Free، Pro و Max در دسترس است.
❌ اگر نمیخواهید دادهها استفاده شوند:
هنگام نمایش pop-up کافیست تومبلر را روی Off بگذارید.
اگر اشتباهاً پذیرفتید، مسیر Settings → Privacy → Privacy Settings → Help improve Claude را باز کنید و گزینه را خاموش کنید.
ℹ️ توجه:
✳️میتوانید هر زمان تصمیمتان را تغییر دهید، اما تنظیمات جدید فقط روی دادههای آینده اعمال میشود. دادههای قبلی حذف نمیشوند.
✳️این تغییرات فقط مربوط به کاربران عادی (Consumer Plans) است و شامل Claude for Work، Gov، Education و API (Bedrock, Vertex AI) نمیشود.
✳️در اپلیکیشن، یک pop-up با دکمه بزرگ Accept ظاهر میشود که تومبلر آن بهطور پیشفرض روشن است.
⛔️همچنین Anthropic تاکید کرده که دادههای حساس را فیلتر یا ماسک میکند و اطلاعات کاربران را نمیفروشد.
🔗 جزئیات بیشتر: anthropic.com/news/updates-to-our-consumer-terms
#Claude #هوش_مصنوعی #حریم_خصوصی
@rss_ai_ir
😁8❤5👍5🎉4🔥3
📌 خبر مهم از Anthropic
🔻 شرکت Anthropic رسماً اعلام کرده که قصد دارد مدلهای خود (مثل Claude) را روی دادههای کاربران هم آموزش دهد. این دادهها شامل تاریخچه چتها و سشنهای کدنویسی میشود.
🗓️ همه کاربران تا تاریخ ۲۸ سپتامبر ۲۰۲۵ باید تصمیم بگیرند که آیا اجازه استفاده از دادههایشان برای آموزش داده شود یا خیر.
🔑 جزئیات مهم:
♻️به صورت پیشفرض ❌ دادههای شما استفاده نمیشوند. برای اشتراکگذاری باید حتماً روی گزینه Accept کلیک کنید.
♻️این سیاست فقط شامل چتهای جدید یا دوباره شروعشده میشود. دادههای قدیمی مشمول آن نخواهند بود.
♻️اگر قبول کنید، دادههایتان میتوانند تا ۵ سال ذخیره شوند.
♻️این تغییر فقط برای کاربران عادی (Free, Pro, Max) اعمال میشود. API، Claude for Work، Gov و Education شامل آن نیستند.
♻️همچنین Anthropic تأکید کرده که کاربران حق انتخاب دارند و دادههای حساس فیلتر یا ماسک میشوند.
⚡️ جمعبندی: این موضوع دیر یا زود اتفاق میافتاد، اما حداقل Anthropic بهطور شفاف اطلاعرسانی کرده و به کاربران اختیار داده است.
🔗 متن کامل خبر
#AI_news #Claude #Anthropic #حریم_خصوصی
@rss_ai_ir
🔻 شرکت Anthropic رسماً اعلام کرده که قصد دارد مدلهای خود (مثل Claude) را روی دادههای کاربران هم آموزش دهد. این دادهها شامل تاریخچه چتها و سشنهای کدنویسی میشود.
🗓️ همه کاربران تا تاریخ ۲۸ سپتامبر ۲۰۲۵ باید تصمیم بگیرند که آیا اجازه استفاده از دادههایشان برای آموزش داده شود یا خیر.
🔑 جزئیات مهم:
♻️به صورت پیشفرض ❌ دادههای شما استفاده نمیشوند. برای اشتراکگذاری باید حتماً روی گزینه Accept کلیک کنید.
♻️این سیاست فقط شامل چتهای جدید یا دوباره شروعشده میشود. دادههای قدیمی مشمول آن نخواهند بود.
♻️اگر قبول کنید، دادههایتان میتوانند تا ۵ سال ذخیره شوند.
♻️این تغییر فقط برای کاربران عادی (Free, Pro, Max) اعمال میشود. API، Claude for Work، Gov و Education شامل آن نیستند.
♻️همچنین Anthropic تأکید کرده که کاربران حق انتخاب دارند و دادههای حساس فیلتر یا ماسک میشوند.
⚡️ جمعبندی: این موضوع دیر یا زود اتفاق میافتاد، اما حداقل Anthropic بهطور شفاف اطلاعرسانی کرده و به کاربران اختیار داده است.
🔗 متن کامل خبر
#AI_news #Claude #Anthropic #حریم_خصوصی
@rss_ai_ir
👍9🎉7❤4😁4🔥2