The Debugging Diaries
یک از شرکت هایی دیگری که تو زمینه مدل های زمانی بزرگ فعالیت میکنه DeepSeek هستش. امروز یه مدل 613 میلیاردی رو اوپن سورس کرد و یه تکنیکال ریپورت هم منتشر کرده. نکته جالبش هزینه ساخت این مدل هستش که حدود 5.5 میلیون دلار شده(بدون در نظر گرفتن آزمون خطاهاش) که…
دیروز یه اتفاق خوب دیگه هم افتاد اونم منتشر شدن آپ اندرویدی Deepseek بود. قبلش البته برای IOS منتشر شده بود که خیال طرفدارای اپل راحت باشه. مدل خوبیه واقعا، اما دیدم تو فضای مجازی نگرانیهایی راجع به نگهداری چتها و حریم خصوصی در این مدل مطرح بود، فارغ از درست و غلط بودن، توی مواردی که با مدل چت میکنین جانب احتیاط رو رعایت کنین. روی چین و حزب کمونیستش هم حساس هست و با سوگیری جواب میده یا گارد مدل فعال میشه و جواب نمیده. غیر این موارد مدل عالی هست. رایگان در سطح Gpt4o، اوپن سورس، قابلیت سرچ، قابلیت تفکر و مهمتر از همه بدون تحریم برای ما.
تا اینجا سه هوشمصنوعی که اپ اندرویدی دارند و تحریم نیستن عبارت است از
تا اینجا سه هوشمصنوعی که اپ اندرویدی دارند و تحریم نیستن عبارت است از
Copilot
Perplexity
Deepseek
👏1
خب امشب هم بریم سراغ دوتا کامند مناسب کار با داده در لینوکس
اولیش spilt هست، همینطور که از اسمش هم مشخصه کارش تقسیم کردن یک فایل هست. فرض کنیم یه فایل داریم دارای 5 خط.
خب اولین سوییچ l- هست یعنی بر اساس خط، پس اینجا دو خط دو خط فایل تقسیم میکنه.به جاش می تونین n- استفاده کنین که میشه تعداد فایلهای خروجی. d- به معنای شماره گذاری فایلهای خروجی به صورت عددی هست. در حالت عادی این شماره گذاری به صورت حروف انگلیسی انجام میشه. additional suffix هم پسوند فایل خروجی مشخص میکنه.
بعد از فایل هم اسم فایلهای خروجی قرار میگیره با فرض اینکه مقدار files نوشته شده باشه خروجی دستور بالا میشه
دستور بعدی sed هست برای حذف یا جایگزین کردن در فایل
اولیش spilt هست، همینطور که از اسمش هم مشخصه کارش تقسیم کردن یک فایل هست. فرض کنیم یه فایل داریم دارای 5 خط.
split -l 2 -d --additional-suffix=.txt <file> <split-file-name>
خب اولین سوییچ l- هست یعنی بر اساس خط، پس اینجا دو خط دو خط فایل تقسیم میکنه.به جاش می تونین n- استفاده کنین که میشه تعداد فایلهای خروجی. d- به معنای شماره گذاری فایلهای خروجی به صورت عددی هست. در حالت عادی این شماره گذاری به صورت حروف انگلیسی انجام میشه. additional suffix هم پسوند فایل خروجی مشخص میکنه.
بعد از فایل هم اسم فایلهای خروجی قرار میگیره با فرض اینکه مقدار files نوشته شده باشه خروجی دستور بالا میشه
files00.txt files01.txt files02.txt
دستور بعدی sed هست برای حذف یا جایگزین کردن در فایل
sed 's/old/new/g' <file>
# s min replace and g means in all the line
sed '/pattern/d' <file>
# delete all thing that match with pattern
sed -i.bak 's/old/new/g' <file>
# first get backup then Edit in place
کم کم به انتهای مبحث پارامترهای مدلهای زبانی داریم میرسیم و پارامتر 6ام فک کنم که بررسی میکنیم
این پارامتر در واقع بر روی اینکه مدل در مورد همون موضوع صحبت کنه یا ایدهها و موضوعات جدید رو مطرح کنه اثر میذاره. این پارامتر خیلی شبیه جریمه تکرار هست ولی از یه بعد دیگه به قضیه نگاه میکنه(اسپویل آلرت!! پارامتر بعدی که قرار معرفی شه هم خیلی شبیه اینه).جریمه حضور، مدل رو به تولید کلمات یا مفاهیمی که قبلاً در متن ظاهر شدهاند، تشویق یا جریمه می کنه. مقدار این پارامتر بین 2 تا 2- هستش
مقدارهای مثبت بحث زیاد راجع به موضوع فعلی رو جریمه و مقدار منفی به معنای موندن و توضیح و تکرار بیشتر موضوع فعلی هست. خلاصهاش اینکه مدل روی همین موضوع تمرکز و تکرار کنه یا بره سراغ مفاهیم مرتبط و نزدیک به بحث اصلی. پس بحث این پارامتر روی تکرار کلمات نیست بلکه روی موضوعات تمرکز داره.
برای مثال برخلاف جریمه حضور ( و جریمه فرکانس که آینده خواهید دید) در یک متن مثلا در مورد "AI"، جریمه حضور زیاد مدل را از تولید مجدد عبارت "AI" باز می داره، حتی اگر اخیراً دقیقاً از آن کلمه استفاده نشده باشد.
مدل در سوال دوم سعی میکنه از یه جنبه دیگه به مدل بپردازه و دیگه به مریخ و .. اشاره نمیکنه
اشاره مجدد به مریخ و مباحث گذشته
#LLM
presence penalty
یا جریمه حضور( چالش ترجمه🫠) است.این پارامتر در واقع بر روی اینکه مدل در مورد همون موضوع صحبت کنه یا ایدهها و موضوعات جدید رو مطرح کنه اثر میذاره. این پارامتر خیلی شبیه جریمه تکرار هست ولی از یه بعد دیگه به قضیه نگاه میکنه(اسپویل آلرت!! پارامتر بعدی که قرار معرفی شه هم خیلی شبیه اینه).جریمه حضور، مدل رو به تولید کلمات یا مفاهیمی که قبلاً در متن ظاهر شدهاند، تشویق یا جریمه می کنه. مقدار این پارامتر بین 2 تا 2- هستش
مقدارهای مثبت بحث زیاد راجع به موضوع فعلی رو جریمه و مقدار منفی به معنای موندن و توضیح و تکرار بیشتر موضوع فعلی هست. خلاصهاش اینکه مدل روی همین موضوع تمرکز و تکرار کنه یا بره سراغ مفاهیم مرتبط و نزدیک به بحث اصلی. پس بحث این پارامتر روی تکرار کلمات نیست بلکه روی موضوعات تمرکز داره.
برای مثال برخلاف جریمه حضور ( و جریمه فرکانس که آینده خواهید دید) در یک متن مثلا در مورد "AI"، جریمه حضور زیاد مدل را از تولید مجدد عبارت "AI" باز می داره، حتی اگر اخیراً دقیقاً از آن کلمه استفاده نشده باشد.
High Presence Penalty (1.5)
User: "What is the current state of space exploration?"
Bot: "Humanity has made significant strides with Mars missions and the Artemis program, which aims to return astronauts to the Moon. There’s also a growing interest in asteroid mining and commercial space travel."
User: "What are the biggest challenges for the future of space exploration?"
Bot: "Challenges include the cost of space missions, developing sustainable life support systems for long-duration space travel, and the need for innovative propulsion technologies."
مدل در سوال دوم سعی میکنه از یه جنبه دیگه به مدل بپردازه و دیگه به مریخ و .. اشاره نمیکنه
Low Presence Penalty (0):
User: "What is the current state of space exploration?"
Bot: "Humanity has made significant strides with Mars missions and the Artemis program, which aims to return astronauts to the Moon. There’s also a growing interest in asteroid mining and commercial space travel."
User: "What are the biggest challenges for the future of space exploration?"
Bot: "The challenges for space exploration include the cost of Mars missions, the need for sustainable life support systems for long-term missions, and the challenges of deep space exploration."
اشاره مجدد به مریخ و مباحث گذشته
#LLM
بریم سراغ لینوکس و این دفعه دستور grep
وظیفه این دستور جست و جوی پترنهای متنی در فایلهاست.
چند نکته
در صورت یافتن پترن کل اون خط رو بر میگردونه
تو این مثالها از یه متن معمولی استفاده شده ولی از Regex یا همون عبارت باقاعده هم میشه استفاده کرد.
خیلی با ( | ) پایپ استفاده میشه در واقع خروجی یه دستور بهش داده میشه و روی آن فیلتر انجام میده
وظیفه این دستور جست و جوی پترنهای متنی در فایلهاست.
grep [options] "<pattern>" <file(s)>
grep -i "error" log.txt
# case-insensitive search
grep -v "debug" log.txt
# Shows all lines except those containing debug
grep -r "error" <dir path>
# search error in one dir
grep -c "error" log.txt
# count number of matching
grep -w "cat" animals.txt
# matches cat but not something like catch
چند نکته
در صورت یافتن پترن کل اون خط رو بر میگردونه
تو این مثالها از یه متن معمولی استفاده شده ولی از Regex یا همون عبارت باقاعده هم میشه استفاده کرد.
خیلی با ( | ) پایپ استفاده میشه در واقع خروجی یه دستور بهش داده میشه و روی آن فیلتر انجام میده
ls /etc | grep resol
# output resolv.conf
👍2
یکی از مشکلات ما توی دانلود پکیج یا ایمیج های توی داکر یا پایتون هستن
تحریم یا SSL ارور و کندی و هزارتا مشکل دیگه
یکی از راه حل ها استفاده از سرورهای Mirror هستش
یه Mirror برای دانلود پکیج های پایتونی runflare هستش با استفاده از این سرور میتونین سرعت دانلود پکیج ها توی پایتون ( در ایران مخصوصا ) خیلی زیاد کنین
برای استفاده به شکل زیر عمل کنین
برای استفاده از ایمیج های داکر هم ریجستری Mirror آروان خیلی خوبه کافیه آدرس زیر رو قبل از اسم
docker.arvancloud.ir/
کافیه اسم ایمیج بیارین
توی داکر کامپوز هم جوابه
تحریم یا SSL ارور و کندی و هزارتا مشکل دیگه
یکی از راه حل ها استفاده از سرورهای Mirror هستش
یه Mirror برای دانلود پکیج های پایتونی runflare هستش با استفاده از این سرور میتونین سرعت دانلود پکیج ها توی پایتون ( در ایران مخصوصا ) خیلی زیاد کنین
برای استفاده به شکل زیر عمل کنین
pip install -i https://mirror-pypi.runflare.com/simple/ <package name>
برای استفاده از ایمیج های داکر هم ریجستری Mirror آروان خیلی خوبه کافیه آدرس زیر رو قبل از اسم
docker.arvancloud.ir/
کافیه اسم ایمیج بیارین
docker pull docker.arvancloud.ir/kibana:latest
توی داکر کامپوز هم جوابه
services:
kibana:
image: docker.arvancloud.ir/kibana:7.17.24
👍3
The Debugging Diaries
Photo
🎯 چند ماه پیش، یه تیم چینی به اسم Manus یه AI Agent فوقالعاده معرفی کرد که سر و صدای زیادی به پا کرد. خیلیها مشتاق بودن تستش کنن، اما مشکل اینجا بود که برای ساخت اکانت، نیاز به کد دعوت (invite code) داشتید.
(اگه با این پلفترم آشنا نیستین اینجا رو ببینید)
من تونستم بدون کد دعوت وارد بشم و تصمیم گرفتم تجربهم رو اینجا باهاتون به اشتراک بذارم.این به خاطر نصب و استفاده از app گوشیش به صورت زودهنگام یا یه باگ احتمالیه که هنوز رفع نشده و شاید بعداً جلوی اون رو بگیرن هست ، پس تا فرصت هست استفاده کنین. مراحل ساخت اکانت بدون کد دعوت:
✅ مراحل ساخت اکانت Manus بدون Invite Code:
1️⃣ وارد سایت Manus بشید و روی "Get Started" کلیک کنید.
2️⃣ با جیمیل خودتون Sign in کنید.
🔴 اینجا ارور میگیرید که Invite Code نیاز دارید. نگران نباشید!
3️⃣ برید به Google Play Store و اپلیکیشن Manus رو نصب کنید.
4️⃣ اپ رو باز کنید و با همون جیمیل وارد بشید.
✅ به طرز عجیبی، این بار بدون نیاز به Invite Code وارد میشید!
5️⃣ حالا میتونید برگردید به سایت و از نسخه وب هم استفاده کنید. چون اکانتتون فعال شده، این بار لاگین موفق خواهد بود.
👀 این روش برای من جواب داد و چند نفر دیگه هم تستش کردن و تاییدش کردن. اگه شما هم علاقهمندید AI Agent خفن Manus رو تجربه کنید، این فرصت رو از دست ندید!
#Manus #AI_Agent #AI
📡 @ImanCodingCorner
(اگه با این پلفترم آشنا نیستین اینجا رو ببینید)
من تونستم بدون کد دعوت وارد بشم و تصمیم گرفتم تجربهم رو اینجا باهاتون به اشتراک بذارم.این به خاطر نصب و استفاده از app گوشیش به صورت زودهنگام یا یه باگ احتمالیه که هنوز رفع نشده و شاید بعداً جلوی اون رو بگیرن هست ، پس تا فرصت هست استفاده کنین. مراحل ساخت اکانت بدون کد دعوت:
✅ مراحل ساخت اکانت Manus بدون Invite Code:
1️⃣ وارد سایت Manus بشید و روی "Get Started" کلیک کنید.
2️⃣ با جیمیل خودتون Sign in کنید.
🔴 اینجا ارور میگیرید که Invite Code نیاز دارید. نگران نباشید!
3️⃣ برید به Google Play Store و اپلیکیشن Manus رو نصب کنید.
4️⃣ اپ رو باز کنید و با همون جیمیل وارد بشید.
✅ به طرز عجیبی، این بار بدون نیاز به Invite Code وارد میشید!
5️⃣ حالا میتونید برگردید به سایت و از نسخه وب هم استفاده کنید. چون اکانتتون فعال شده، این بار لاگین موفق خواهد بود.
👀 این روش برای من جواب داد و چند نفر دیگه هم تستش کردن و تاییدش کردن. اگه شما هم علاقهمندید AI Agent خفن Manus رو تجربه کنید، این فرصت رو از دست ندید!
#Manus #AI_Agent #AI
📡 @ImanCodingCorner
YouTube
چین باز هم همه رو حیرت زده کرد! ابزار منس
توی این ویدئو ابزار جدید Manus رو بهتون نشون میدم که همه دارن درموردش حرف میزنن. منس یک ایجنت هوش مصنوعی خودمختار هست که خیلی کارها میتونه بکنه
00:00 شروع
00:15 ایجنت Manus AI
00:46 کاربردها
07:56 چطور از Manus استفاده کنیم
============================…
00:00 شروع
00:15 ایجنت Manus AI
00:46 کاربردها
07:56 چطور از Manus استفاده کنیم
============================…
💯2
خبری از OpenAI: معرفی GPT-4.1!
امروز (25 فروردین 1404)، OpenAI از مدل جدید به نام GPT-4.1، رونمایی کرد! 🚀 این مدل یه ارتقاء بزرگ نسبت به GPT-4o در تمام ابعاد محسوب میشه و بهبودهای چشمگیری در چند حوزه کلیدی داره:
1️⃣ 💻 کدنویسی: GPT-4.1 در تولید و ویرایش کد، بهخصوص کدنویسی فرانتاند، خیلی بهتر و قابلاعتمادتر شده. امتیازاتش تو بنچمارکهای کدنویسی واقعاً چشمگیره! مثلاً تو معیار Aider بیش از ۲ برابر بهتر از GPT-4o عمل کرده!
2️⃣ 🎯 پیروی دقیق از دستورات(Instruction): این مدل دستورات شما رو خیلی بهتر درک میکنه و دقیقاً همون چیزی رو که میخواید، تحویل میده. نیاز به تکرار و اصلاح دستور کمتر میشه.
3️⃣ 📚 درک متنهای طولانی: مهمترین ویژگی شاید همین باشه! GPT-4.1 از یک context متنی ۱ میلیون توکنی پشتیبانی میکنه در مقایسه با ۱۲۸ هزار توکن GPT-4o. این یعنی میتونه حجم عظیمی از اطلاعات و اسناد طولانی رو تحلیل کنه و ادعا کردن که دقتش هم خیلی افت نمیکنه
نکات مهم دیگه:
* 🧠 دانش بهروز: اطلاعاتش تا ژوئن ۲۰۲۴ آپدیت شده.
* 💰 ارزانتر: استفاده از GPT-4.1 به طور متوسط ۲۶٪ ارزونتر از GPT-4o هست!
* 👨👩👧👦 خانواده جدید:
* 🚀 مدل GPT-4.1 mini: یه مدل کوچیکتر ولی فوقالعاده کارآمد که تو خیلی موارد حتی از GPT-4o بهتره و ۸۳٪ ارزونتر!
* 🔬 مدل GPT-4.1 nano: یه مدل خیلی کوچیک و سریع، با همون پنجره ۱ میلیون توکنی و ارزون ترین مدل این خانواده
* ❓ در پلتفرم ChatGPT چطور؟
مدل GPT-4.1 مستقیماً به عنوان یه گزینه در ChatGPT قابل انتخاب نیست و صرفا در API در دسترس خواهد بود.
همچنین به صورت پیشنمایش در GitHub Copilot موجوده.(که همین الان برای پلن پولی و رایگان در دسترس هست)
به عنوان نکات تکمیلی باید گفت که مدل GPT-4.1 یک مولتی مدال هست که در درک تصویر، حل مسئله تصویری ریاضی، درک عمیقتر از نمودارها و دیاگرامها و OCR هم بهتر از مدل GPT4o هست.
همچنین این مدل در برخی از موارد از GPT4.5 هم بهتر عمل کرده
مدل GPT-4.1، همان مدل ناشناسی هستش که در برخی پلتفرمها مثل openrouter به اسم Quasar عرضه شده بود (اون زمان برای تست رایگان بود :) )
توضیحات بیشتر راجع به این مدل رو میتونین در مقاله و لایو ویدیویی مشاهده کنین
#OpenAI #GPT4_1 #LLM
امروز (25 فروردین 1404)، OpenAI از مدل جدید به نام GPT-4.1، رونمایی کرد! 🚀 این مدل یه ارتقاء بزرگ نسبت به GPT-4o در تمام ابعاد محسوب میشه و بهبودهای چشمگیری در چند حوزه کلیدی داره:
1️⃣ 💻 کدنویسی: GPT-4.1 در تولید و ویرایش کد، بهخصوص کدنویسی فرانتاند، خیلی بهتر و قابلاعتمادتر شده. امتیازاتش تو بنچمارکهای کدنویسی واقعاً چشمگیره! مثلاً تو معیار Aider بیش از ۲ برابر بهتر از GPT-4o عمل کرده!
2️⃣ 🎯 پیروی دقیق از دستورات(Instruction): این مدل دستورات شما رو خیلی بهتر درک میکنه و دقیقاً همون چیزی رو که میخواید، تحویل میده. نیاز به تکرار و اصلاح دستور کمتر میشه.
3️⃣ 📚 درک متنهای طولانی: مهمترین ویژگی شاید همین باشه! GPT-4.1 از یک context متنی ۱ میلیون توکنی پشتیبانی میکنه در مقایسه با ۱۲۸ هزار توکن GPT-4o. این یعنی میتونه حجم عظیمی از اطلاعات و اسناد طولانی رو تحلیل کنه و ادعا کردن که دقتش هم خیلی افت نمیکنه
نکات مهم دیگه:
* 🧠 دانش بهروز: اطلاعاتش تا ژوئن ۲۰۲۴ آپدیت شده.
* 💰 ارزانتر: استفاده از GPT-4.1 به طور متوسط ۲۶٪ ارزونتر از GPT-4o هست!
* 👨👩👧👦 خانواده جدید:
* 🚀 مدل GPT-4.1 mini: یه مدل کوچیکتر ولی فوقالعاده کارآمد که تو خیلی موارد حتی از GPT-4o بهتره و ۸۳٪ ارزونتر!
* 🔬 مدل GPT-4.1 nano: یه مدل خیلی کوچیک و سریع، با همون پنجره ۱ میلیون توکنی و ارزون ترین مدل این خانواده
* ❓ در پلتفرم ChatGPT چطور؟
مدل GPT-4.1 مستقیماً به عنوان یه گزینه در ChatGPT قابل انتخاب نیست و صرفا در API در دسترس خواهد بود.
همچنین به صورت پیشنمایش در GitHub Copilot موجوده.(که همین الان برای پلن پولی و رایگان در دسترس هست)
به عنوان نکات تکمیلی باید گفت که مدل GPT-4.1 یک مولتی مدال هست که در درک تصویر، حل مسئله تصویری ریاضی، درک عمیقتر از نمودارها و دیاگرامها و OCR هم بهتر از مدل GPT4o هست.
همچنین این مدل در برخی از موارد از GPT4.5 هم بهتر عمل کرده
مدل GPT-4.1، همان مدل ناشناسی هستش که در برخی پلتفرمها مثل openrouter به اسم Quasar عرضه شده بود (اون زمان برای تست رایگان بود :) )
توضیحات بیشتر راجع به این مدل رو میتونین در مقاله و لایو ویدیویی مشاهده کنین
#OpenAI #GPT4_1 #LLM
Openai
Introducing GPT-4.1 in the API
Introducing GPT-4.1 in the API—a new family of models with across-the-board improvements, including major gains in coding, instruction following, and long-context understanding. We’re also releasing our first nano model. Available to developers worldwide…
🔥2
📢 چندتا خبر جذاب از دنیای هوش مصنوعی امروز داریم 👇
🔸 پلتفرم Qwen از Alibaba Cloud
اگه با Qwen آشنا نیستین، بدونین که مجموعهای از مدلهای LLM و چندوجهی (multimodal) هست که توسط علیبابا کلود (یک شرکت چینی) توسعه داده شده. این مدلها توی تسکهای مختلف مثل NLP، بینایی کامپیوتر، کدنویسی و استدلال ریاضی واقعاً خوب عمل میکنن. از مهم ترین ویژگی های این پلتفرم میشه به
✅ تنوع مدلها از نظر تعداد پارامتر برای نیازهای مختلف از قبیل مدل های استدلالی ، مولتی مدل، تولید ویدیو و ...
✅ مدلهای open-weight (در هاگنیگ فیس)
✅ دارای context length بالا
✅ پلتفرم رایگان و پایدار و سریع
اشاره کرد.کل مقدمه بالا برای این بود که بگم
📱 امروز نسخه اندرویدی اپ Qwen منتشر شد! تحریم نیست، نصبش راحته و برای کارهای دمدستی، سوالای سریع و تولید محتوا خیلی کاربردیه.
آدرس پلتفرم
🔸 خبر از OpenAI
چندتا آپدیت مهم برای پلن رایگان ChatGPT:
1. ویژگی Deep Research (البته به گفته خودشون ورژن light weight یا همون نسخهی سبک) برای همه در دسترس شده.
2. مدل o4-mini در قسمت Reasoning ، جایگزین o3-mini شده (برای کاربرهای رایگان هم).
3. ویژگی Image Library اضافه شده: تمام تصاویری که تولید میکنی توی یه گالری قابل دیدنه و نگهداری میشن.
4. تولید تصویر از طریق API هم در دسترس قرار گرفته! 👨💻🖼️
🔚 دنیای AI داره با سرعت پیش میره، اینا فقط بخشی از بروزرسانیهای امروز بودن.
🔁 اگه به دردت خورد، حتماً با بقیه به اشتراک بذار.
#AI #LLM
🔸 پلتفرم Qwen از Alibaba Cloud
اگه با Qwen آشنا نیستین، بدونین که مجموعهای از مدلهای LLM و چندوجهی (multimodal) هست که توسط علیبابا کلود (یک شرکت چینی) توسعه داده شده. این مدلها توی تسکهای مختلف مثل NLP، بینایی کامپیوتر، کدنویسی و استدلال ریاضی واقعاً خوب عمل میکنن. از مهم ترین ویژگی های این پلتفرم میشه به
✅ تنوع مدلها از نظر تعداد پارامتر برای نیازهای مختلف از قبیل مدل های استدلالی ، مولتی مدل، تولید ویدیو و ...
✅ مدلهای open-weight (در هاگنیگ فیس)
✅ دارای context length بالا
✅ پلتفرم رایگان و پایدار و سریع
اشاره کرد.کل مقدمه بالا برای این بود که بگم
📱 امروز نسخه اندرویدی اپ Qwen منتشر شد! تحریم نیست، نصبش راحته و برای کارهای دمدستی، سوالای سریع و تولید محتوا خیلی کاربردیه.
آدرس پلتفرم
🔸 خبر از OpenAI
چندتا آپدیت مهم برای پلن رایگان ChatGPT:
1. ویژگی Deep Research (البته به گفته خودشون ورژن light weight یا همون نسخهی سبک) برای همه در دسترس شده.
2. مدل o4-mini در قسمت Reasoning ، جایگزین o3-mini شده (برای کاربرهای رایگان هم).
3. ویژگی Image Library اضافه شده: تمام تصاویری که تولید میکنی توی یه گالری قابل دیدنه و نگهداری میشن.
4. تولید تصویر از طریق API هم در دسترس قرار گرفته! 👨💻🖼️
🔚 دنیای AI داره با سرعت پیش میره، اینا فقط بخشی از بروزرسانیهای امروز بودن.
🔁 اگه به دردت خورد، حتماً با بقیه به اشتراک بذار.
#AI #LLM
huggingface.co
Qwen (Qwen)
Org profile for Qwen on Hugging Face, the AI community building the future.
👍2
📌 شاید بشه نقطهی تمایز اصلی بین یک مدل زبانی ساده و یک Agent هوشمند رو در استفاده از انواع ابزارهای خارجی دونست.
یکی از قویترین ابزارهایی که میتونه یه LLM رو به سطح جدیدی برسونه جستوجو در اینترنت هست و Tavily AI رو میشه به عنوان یکی از بهترین سرویس دهنده در این حوزه نام برد. این ابزار یک موتور جستوجوی تخصصی برای مدلهای زبانی بزرگه که بهطور خاص برای استفاده در سازوکارهای AI Agentها و سیستمهای RAG طراحی شده.
🔍ابزار Tavily چیه و چرا باید بشناسیمش؟
سرویس Tavily Search API با تمرکز بر مدلهای زبانی و Agentهای هوشمند توسعه داده شده. این ابزار کمک میکنه مدلهای زبانی، اطلاعات بهروز و دقیق رو از وب دریافت کنن — بدون نویز و بدون سوگیری.
ویژگیهای کلیدی Tavily:
🎯 مناسب برای AI : طراحیشده مخصوص مدلهای زبانی وAgentها
⚙️ قابل تنظیم : امکان مدیریت دامنهها و عمق جستوجو
🕒 بلادرنگ : دریافت دادههای جدید و معتبر از اینترنت به همراه رفرنس
🧩 یکپارچه : پکیج مخصوص پایتون و جاوا اسکریپت و پشتیبانی در بیشترهای فریمورک های Ai Agent
📣 اگر در حال ساختن یک Agent هوشمند هستی یا از LangChain / LlamaIndex استفاده میکنی، Tavily یه ابزار بینظیره که قدرت مدلهات رو چند برابر میکنه.
یه پلن رایگان داره که 1000 اعتبار تو ماه بهت میده ، بسته به سرچی که انجام میدین بین یک یا چندتا اعتبار از شما کم میشه
برای دیدن قابلیت های بیشتر و APIهای این شرکت به این آدرس برین
یکی از قویترین ابزارهایی که میتونه یه LLM رو به سطح جدیدی برسونه جستوجو در اینترنت هست و Tavily AI رو میشه به عنوان یکی از بهترین سرویس دهنده در این حوزه نام برد. این ابزار یک موتور جستوجوی تخصصی برای مدلهای زبانی بزرگه که بهطور خاص برای استفاده در سازوکارهای AI Agentها و سیستمهای RAG طراحی شده.
🔍ابزار Tavily چیه و چرا باید بشناسیمش؟
سرویس Tavily Search API با تمرکز بر مدلهای زبانی و Agentهای هوشمند توسعه داده شده. این ابزار کمک میکنه مدلهای زبانی، اطلاعات بهروز و دقیق رو از وب دریافت کنن — بدون نویز و بدون سوگیری.
ویژگیهای کلیدی Tavily:
🎯 مناسب برای AI : طراحیشده مخصوص مدلهای زبانی وAgentها
⚙️ قابل تنظیم : امکان مدیریت دامنهها و عمق جستوجو
🕒 بلادرنگ : دریافت دادههای جدید و معتبر از اینترنت به همراه رفرنس
🧩 یکپارچه : پکیج مخصوص پایتون و جاوا اسکریپت و پشتیبانی در بیشترهای فریمورک های Ai Agent
📣 اگر در حال ساختن یک Agent هوشمند هستی یا از LangChain / LlamaIndex استفاده میکنی، Tavily یه ابزار بینظیره که قدرت مدلهات رو چند برابر میکنه.
یه پلن رایگان داره که 1000 اعتبار تو ماه بهت میده ، بسته به سرچی که انجام میدین بین یک یا چندتا اعتبار از شما کم میشه
برای دیدن قابلیت های بیشتر و APIهای این شرکت به این آدرس برین
Tavily Docs
Tavily Search - Tavily Docs
Execute a search query using Tavily Search.
❤1👍1
🎯 فرقی نداره تو کدوم شاخهای از علوم کامپیوتر فعالی
📊 دانشمند یا مهندس دادهای؟ 🤖 تو حوزهی هوش مصنوعی کار میکنی؟ 👨💻 مهندس نرم افزاری، فرانتاند یا بکاندی؟
🛠 فرقی نمیکنه؛ داکر یکی از اون ابزارهاییه که باید بلد باشی.
🧠 شاید با ظهور مدلهای زبانی بزرگ (LLM) دیگه کمتر سراغ چیتشیتها بریم،
ولی یه نگاه به چیتشیت داکر میتونه خیلی مفید باشه —
بفهمی چی بلدی، چی رو باید یاد بگیری(هر چند که این چیت شیت بخش کوچیکی از داکر هست.)
⏳ هر روزی یادگیری دیرتر داکر دردسرهای بیشتر.
🔥 پس از همین امروز شروع کن به یادگیریش
📊 دانشمند یا مهندس دادهای؟ 🤖 تو حوزهی هوش مصنوعی کار میکنی؟ 👨💻 مهندس نرم افزاری، فرانتاند یا بکاندی؟
🛠 فرقی نمیکنه؛ داکر یکی از اون ابزارهاییه که باید بلد باشی.
🧠 شاید با ظهور مدلهای زبانی بزرگ (LLM) دیگه کمتر سراغ چیتشیتها بریم،
ولی یه نگاه به چیتشیت داکر میتونه خیلی مفید باشه —
بفهمی چی بلدی، چی رو باید یاد بگیری(هر چند که این چیت شیت بخش کوچیکی از داکر هست.)
⏳ هر روزی یادگیری دیرتر داکر دردسرهای بیشتر.
🔥 پس از همین امروز شروع کن به یادگیریش
👍1👌1
پس از گذشت دو سال از ظهور مدلهای بزرگ زبانی، ترند فعلی این حوزه شاید Agentها باشند. همینطور که OpenAI هم استراتژی خودش برای سال 2025 رو بر توسعه و تمرکز بیشتر روی سیستمهای مبتنی بر Agentها اعلام کرده. اما یه نکته مهم اینجا دونستن تفاوت بین Workflow و Agent هست. تو چند پست بعدی قراره به مفاهیم مربوط به Agentها، Workflowها و همچنین Design Patternهای معروف این حوزه بپردازم.
ولی قبلش بهتره تفاوت این دو تا رو بگیم
✨ در واقع Workflowها سیستمهایی هستن که توشون مدلهای زبانی(LLM)ها و ابزارها از طریق مسیرهای از پیش تعریفشده کدنویسی و هماهنگ میشن.
✨ اما Agentها سیستمهایی هستن که توشون LLMها به صورت پویا فرآیندها و استفاده از ابزارها رو خودشون هدایت و مدیریت میکنن و روی نحوه انجام وظایفشون کنترل دارن.
این پست و پستهای بعدی بر اساس مقالهی
ولی قبلش بهتره تفاوت این دو تا رو بگیم
✨ در واقع Workflowها سیستمهایی هستن که توشون مدلهای زبانی(LLM)ها و ابزارها از طریق مسیرهای از پیش تعریفشده کدنویسی و هماهنگ میشن.
✨ اما Agentها سیستمهایی هستن که توشون LLMها به صورت پویا فرآیندها و استفاده از ابزارها رو خودشون هدایت و مدیریت میکنن و روی نحوه انجام وظایفشون کنترل دارن.
این پست و پستهای بعدی بر اساس مقالهی
"Building Effective Agents"
از آنتروپیک نوشته شده.👍4
بریم سراغ یه دیزاین ساده ولی کاربردی از workflowها
🔥 زنجیرهسازی پرامپتها (Prompt Chaining) چیه؟
فرض کن یه کار پیچیده داری که نمیشه تو یه مرحله حلش کرد. راهحل چیه؟ اون رو به چند مرحله کوچیکتر تقسیم کن! 😎
توی زنجیرهسازی پرامپتها، هر بار که LLM یا همون مدل زبانی یه خروجی میده، اون خروجی میشه ورودی مرحله بعد. اینجوری مرحله به مرحله جلو میری تا به جواب نهایی برسی.
مثلاً برای خلاصهسازی یه مقاله علمی، اول ساختارش رو استخراج میکنی، بعد هر بخش رو جداگانه خلاصه میکنی، و در نهایت یه جمعبندی نهایی از همهی بخشها میسازی.
✅ نکته باحالتر: میتونی وسط کار، بررسی (Gate) و شرط بذاری که مطمئن شی هر مرحله درست انجام شده. مثلاً بگی: «اگه خروجی مرحله قبل ناقص بود، دوباره اجرا کن!» یا «اگه نتیجه شد A اینکارو بکن اگه شد B یه کار دیگه»
📌 کی استفاده کنیم؟
وقتی کاری داری که میتونی قشنگ به چند زیرکار مشخص بشکونیش. این روش باعث میشه هم سرعت بهتر بشه، هم دقت نهایی بالاتر بره.
🔥 زنجیرهسازی پرامپتها (Prompt Chaining) چیه؟
فرض کن یه کار پیچیده داری که نمیشه تو یه مرحله حلش کرد. راهحل چیه؟ اون رو به چند مرحله کوچیکتر تقسیم کن! 😎
توی زنجیرهسازی پرامپتها، هر بار که LLM یا همون مدل زبانی یه خروجی میده، اون خروجی میشه ورودی مرحله بعد. اینجوری مرحله به مرحله جلو میری تا به جواب نهایی برسی.
مثلاً برای خلاصهسازی یه مقاله علمی، اول ساختارش رو استخراج میکنی، بعد هر بخش رو جداگانه خلاصه میکنی، و در نهایت یه جمعبندی نهایی از همهی بخشها میسازی.
✅ نکته باحالتر: میتونی وسط کار، بررسی (Gate) و شرط بذاری که مطمئن شی هر مرحله درست انجام شده. مثلاً بگی: «اگه خروجی مرحله قبل ناقص بود، دوباره اجرا کن!» یا «اگه نتیجه شد A اینکارو بکن اگه شد B یه کار دیگه»
📌 کی استفاده کنیم؟
وقتی کاری داری که میتونی قشنگ به چند زیرکار مشخص بشکونیش. این روش باعث میشه هم سرعت بهتر بشه، هم دقت نهایی بالاتر بره.
🔥2❤1
🔁 دومین Workflow که بررسی میکنیم: Parallelization (موازیسازی)
با موازیسازی،LLMها میتونن به طور همزمان روی یک وظیفه کار کنند و در نهایت خروجیهایشان به عنوان پاسخ نهایی تجمیع شود. 🚀
• 🧩 بخشبندی: شکستن یه کار بزرگ به زیروظایف مستقل که میتونن همزمان اجرا بشن
• 🗳️ رأیگیری: چند بار یه وظیفه رو اجرا میکنی تا خروجیهای مختلف بگیری، بعد بهترین رو انتخاب میکنی
🤔 چه زمانی از این روش استفاده کنیم؟
وقتی:
✅ شکستن یک وظیفه به زیروظایف مستقل که به صورت موازی اجرا میشوند.
✅ اجرای چندین بار یک وظیفه برای دستیابی به خروجیهای متنوع.
📚 مقاله معروف Chain-of-Tree هم از همین ایده استفاده میکنه.
💼 یه مثال:
فرض کن یه فروشگاه آنلاین داری و میخوای با LLMها به کامنتهای مشتریها جواب بدی:
• 🤖 یه مدل تشخیص میده لحن کامنت چیه (مثبت/منفی/خنثی)
• 🔍 یه مدل دیگه میفهمه مشکل دقیق مشتری چیه
• 💬 یه مدل دیگه هم جواب مناسب رو پیشنهاد میده
در نهایت، این خروجیها رو با هم ترکیب میکنی
همچنین میتونی چندتا خروجی تولید کنی و با رأیگیری یا نظر انسانی، بهترین رو بفرستی. 🎯
با موازیسازی،LLMها میتونن به طور همزمان روی یک وظیفه کار کنند و در نهایت خروجیهایشان به عنوان پاسخ نهایی تجمیع شود. 🚀
• 🧩 بخشبندی: شکستن یه کار بزرگ به زیروظایف مستقل که میتونن همزمان اجرا بشن
• 🗳️ رأیگیری: چند بار یه وظیفه رو اجرا میکنی تا خروجیهای مختلف بگیری، بعد بهترین رو انتخاب میکنی
🤔 چه زمانی از این روش استفاده کنیم؟
وقتی:
✅ شکستن یک وظیفه به زیروظایف مستقل که به صورت موازی اجرا میشوند.
✅ اجرای چندین بار یک وظیفه برای دستیابی به خروجیهای متنوع.
📚 مقاله معروف Chain-of-Tree هم از همین ایده استفاده میکنه.
💼 یه مثال:
فرض کن یه فروشگاه آنلاین داری و میخوای با LLMها به کامنتهای مشتریها جواب بدی:
• 🤖 یه مدل تشخیص میده لحن کامنت چیه (مثبت/منفی/خنثی)
• 🔍 یه مدل دیگه میفهمه مشکل دقیق مشتری چیه
• 💬 یه مدل دیگه هم جواب مناسب رو پیشنهاد میده
در نهایت، این خروجیها رو با هم ترکیب میکنی
همچنین میتونی چندتا خروجی تولید کنی و با رأیگیری یا نظر انسانی، بهترین رو بفرستی. 🎯
👍3
من تجربه کار با GPUهای مختلف از A100 و A6000 تا RTX4090 و و حتی مدلهای پایینتر مث 3050 رو داشتم و انواع مدلها از Deepseek v3 تا Gemma 1b رو هم با روشهای مختلف سرو کردم
ولی هیچی برام هیجان انگیزتر از سرو مدل روی گوشی همراهم نبود.
دیشب گوگل خیلی چیزا رو معرفی کرد ولی بیشتر از همه مدلهای Gemma 3n که مخصوص موبایل و دیوایسهای سبک بود، برام جذابیت داشت.
مولتی مدال ، فوق العاده خوب در فارسی(نسبت به سایز) و در تشخیص تصویر.
البته که که خیلیم سریع نیست.
یسری تست گرفتم که در ادامه باهم ببینیم.
و اگه دوست داشتین راجع استفاده از این مدلها یه پست بذارم با ریکشن هاتون نشون بدین😁
ولی هیچی برام هیجان انگیزتر از سرو مدل روی گوشی همراهم نبود.
دیشب گوگل خیلی چیزا رو معرفی کرد ولی بیشتر از همه مدلهای Gemma 3n که مخصوص موبایل و دیوایسهای سبک بود، برام جذابیت داشت.
مولتی مدال ، فوق العاده خوب در فارسی(نسبت به سایز) و در تشخیص تصویر.
البته که که خیلیم سریع نیست.
یسری تست گرفتم که در ادامه باهم ببینیم.
و اگه دوست داشتین راجع استفاده از این مدلها یه پست بذارم با ریکشن هاتون نشون بدین😁
👍5
سوال : راجع به این تصویر چی میتونی بگی؟
جواب : این پست از Sophia Yang، دکترای علوم کامپیوتر و متخصص هوش مصنوعی، درباره یک مدل متنباز جدید به نام "Devstral" است که برای توسعهدهندگان کد طراحی شده.
نقاط کلیدی پست عبارتند از:
* آشنایی با Devstral: یک مدل زبان متنباز جدید برای توسعه کد.
* تواناییهای برنامهنویسی: حل مشکلات موجود در GitHub و ادغام بینظیر با اسکلتهای عوامل برنامهنویسی (code agent scaffolds).
* عملکرد: عملکرد بهتر از سایر مدلهای متنباز، با حاشیه قابل توجهی.
* انعطافپذیری: قابلیت اجرا بر روی کارت گرافیک RTX 4090 یا مک با حافظه 32 گیگابایت، مناسب برای استقرار محلی و کسبوکارها.
* مجوز: استفاده از مجوز Apache 2.0، به معنای متنباز بودن و آزاد بودن برای جامعه جهت استفاده و سفارشیسازی.
* نمودار عملکرد: نموداری که عملکرد Devstral را با سایر مدلهای موجود مقایسه میکند و نشان میدهد که در اندازههای مختلف مدل، از عملکرد بهتری برخوردار است.
به طور کلی، این پست یک معرفی هیجانانگیز از یک ابزار قدرتمند و متنباز برای توسعه دهندگان کد است.
جواب : این پست از Sophia Yang، دکترای علوم کامپیوتر و متخصص هوش مصنوعی، درباره یک مدل متنباز جدید به نام "Devstral" است که برای توسعهدهندگان کد طراحی شده.
نقاط کلیدی پست عبارتند از:
* آشنایی با Devstral: یک مدل زبان متنباز جدید برای توسعه کد.
* تواناییهای برنامهنویسی: حل مشکلات موجود در GitHub و ادغام بینظیر با اسکلتهای عوامل برنامهنویسی (code agent scaffolds).
* عملکرد: عملکرد بهتر از سایر مدلهای متنباز، با حاشیه قابل توجهی.
* انعطافپذیری: قابلیت اجرا بر روی کارت گرافیک RTX 4090 یا مک با حافظه 32 گیگابایت، مناسب برای استقرار محلی و کسبوکارها.
* مجوز: استفاده از مجوز Apache 2.0، به معنای متنباز بودن و آزاد بودن برای جامعه جهت استفاده و سفارشیسازی.
* نمودار عملکرد: نموداری که عملکرد Devstral را با سایر مدلهای موجود مقایسه میکند و نشان میدهد که در اندازههای مختلف مدل، از عملکرد بهتری برخوردار است.
به طور کلی، این پست یک معرفی هیجانانگیز از یک ابزار قدرتمند و متنباز برای توسعه دهندگان کد است.
👍3