Forwarded from علم داده (Data Science)
این تصویر به دستهبندی و توضیح حوزههای مختلف هوش مصنوعی (AI) میپردازد:
🤖 هوش مصنوعی (AI): ساخت ماشینهایی با رفتار هوشمند (Intelligent Behavior).
یادگیری ماشین (ML):
🏷 نظارتشده (Supervised Learning): آموزش با دادههای برچسبدار.
🔍 بدون نظارت (Unsupervised Learning): شناسایی الگوها در دادههای بدون برچسب.
🏆 تقویتی (Reinforcement Learning): یادگیری از طریق پاداش و مجازات.
🌐 یادگیری عمیق (Deep Learning): استفاده از شبکههای چندلایه (Multi-layered Networks) برای مدلسازی الگوهای پیچیده.
🧠 شبکههای عصبی عمیق (DNNs): شبکههای چندلایهای ضروری برای یادگیری عمیق
🔬 شبکههای عصبی (Neural Networks): مدلهای الهام گرفته از مغز برای تشخیص الگوها.
📷 شبکههای عصبی پیچشی (CNNs): شبکههایی برای شناسایی تصاویر.
🖼 هوش مصنوعی تولیدی (Generative AI): ایجاد دادههای جدید مشابه با دادههای آموزشی، با استفاده از GANs و VAEs.
📝 مدلهای زبان مبتنی بر ترنسفورمر: معماریهای تخصصی برای پردازش زبان طبیعی مثل ChatGPT.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
🤖 هوش مصنوعی (AI): ساخت ماشینهایی با رفتار هوشمند (Intelligent Behavior).
یادگیری ماشین (ML):
🏷 نظارتشده (Supervised Learning): آموزش با دادههای برچسبدار.
🔍 بدون نظارت (Unsupervised Learning): شناسایی الگوها در دادههای بدون برچسب.
🏆 تقویتی (Reinforcement Learning): یادگیری از طریق پاداش و مجازات.
🌐 یادگیری عمیق (Deep Learning): استفاده از شبکههای چندلایه (Multi-layered Networks) برای مدلسازی الگوهای پیچیده.
🧠 شبکههای عصبی عمیق (DNNs): شبکههای چندلایهای ضروری برای یادگیری عمیق
🔬 شبکههای عصبی (Neural Networks): مدلهای الهام گرفته از مغز برای تشخیص الگوها.
📷 شبکههای عصبی پیچشی (CNNs): شبکههایی برای شناسایی تصاویر.
🖼 هوش مصنوعی تولیدی (Generative AI): ایجاد دادههای جدید مشابه با دادههای آموزشی، با استفاده از GANs و VAEs.
📝 مدلهای زبان مبتنی بر ترنسفورمر: معماریهای تخصصی برای پردازش زبان طبیعی مثل ChatGPT.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
Forwarded from DeepMind AI Expert (Farzad)
◾️ List of SQL Data Science Interview Questions
1️⃣ Amazon company SQL interview question
📎 Link: Amazon SQL Interview
2️⃣ Airbnb SQL interview question
📎 Link: Airbnb SQL Interview Question
3️⃣ Adobe SQL Interview Question
📎 Link: Adobe SQL Interview Question
4️⃣ Spotify SQL Interview Question
📎 Link: Spotify SQL Interview Question
5️⃣ L&T Company SQL Interview Question
📎 Link: L&T SQL Interview Question
6️⃣ Ameriprise LLC SQL query
📎 Link: Ameriprise LLC SQL Interview
7️⃣ SQL query from Tiger Analytics
📎 Link: Tiger Analytics SQL Interview
8️⃣ PWC SQL Interview Question
📎 Link: PWC SQL Interview Question
9️⃣ Honeywell SQL Interview Question
📎 Link: Honeywell SQL Interview
1️⃣ Angel One Company SQL Interview Question
📎 Link: Angel One SQL Interview
1️⃣ SQL interview questions of FAANG companies
📎 Link: FAANG SQL Interview Question
1️⃣ Accenture SQL Interview Question
📎 Link: Accenture SQL Interview
#مصاحبه #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
1️⃣ Amazon company SQL interview question
📎 Link: Amazon SQL Interview
2️⃣ Airbnb SQL interview question
📎 Link: Airbnb SQL Interview Question
3️⃣ Adobe SQL Interview Question
📎 Link: Adobe SQL Interview Question
4️⃣ Spotify SQL Interview Question
📎 Link: Spotify SQL Interview Question
5️⃣ L&T Company SQL Interview Question
📎 Link: L&T SQL Interview Question
6️⃣ Ameriprise LLC SQL query
📎 Link: Ameriprise LLC SQL Interview
7️⃣ SQL query from Tiger Analytics
📎 Link: Tiger Analytics SQL Interview
8️⃣ PWC SQL Interview Question
📎 Link: PWC SQL Interview Question
9️⃣ Honeywell SQL Interview Question
📎 Link: Honeywell SQL Interview
1️⃣ Angel One Company SQL Interview Question
📎 Link: Angel One SQL Interview
1️⃣ SQL interview questions of FAANG companies
📎 Link: FAANG SQL Interview Question
1️⃣ Accenture SQL Interview Question
📎 Link: Accenture SQL Interview
#مصاحبه #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Forwarded from علم داده (Data Science)
@DataPlusScience__STATISTICS QUESTIONS FOR DATA SCIENCE.pdf
2.5 MB
✅ ۱۰۹ سوال آمار برای علم داده
این فایل شامل ۱۰۹ سوال مهم آماری برای مصاحبههای شغلی در زمینه علم داده (Data Science) است. با مطالعه این سوالات میتوانید آمادگی لازم برای سوالات رایج در مصاحبههای شغلی را به دست آورید.
📑 سرفصلهای مطالب:
📊 مفاهیم آماری مهم:
اندازهگیری گرایش مرکزی (Measure of Central Tendency)
اندازهگیری پراکندگی (Measure of Dispersion)
کوواریانس و همبستگی (Covariance and Correlation)
تابع توزیع احتمالی (Probability Distribution Function)
قضیه حد مرکزی (Central Limit Theorem)
آزمون فرضیه (Hypothesis Testing)
🔍 تحلیل اکتشافی داده (EDA):
تحلیل بصری و آماری دادهها
شناسایی الگوها
📈 انواع دادهها:
دادههای کمی (Quantitative Data)
دادههای کیفی (Qualitative Data)
🧮 تحلیل دادهها:
تکمتغیره، دومتغیره و چندمتغیره
⚠️ پرکردن دادههای گمشده:
روشهای ساده و پیچیده
🧑🏫 آمار توصیفی و استنباطی:
خلاصهسازی ویژگیهای دادهها
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
این فایل شامل ۱۰۹ سوال مهم آماری برای مصاحبههای شغلی در زمینه علم داده (Data Science) است. با مطالعه این سوالات میتوانید آمادگی لازم برای سوالات رایج در مصاحبههای شغلی را به دست آورید.
📑 سرفصلهای مطالب:
📊 مفاهیم آماری مهم:
اندازهگیری گرایش مرکزی (Measure of Central Tendency)
اندازهگیری پراکندگی (Measure of Dispersion)
کوواریانس و همبستگی (Covariance and Correlation)
تابع توزیع احتمالی (Probability Distribution Function)
قضیه حد مرکزی (Central Limit Theorem)
آزمون فرضیه (Hypothesis Testing)
🔍 تحلیل اکتشافی داده (EDA):
تحلیل بصری و آماری دادهها
شناسایی الگوها
📈 انواع دادهها:
دادههای کمی (Quantitative Data)
دادههای کیفی (Qualitative Data)
🧮 تحلیل دادهها:
تکمتغیره، دومتغیره و چندمتغیره
⚠️ پرکردن دادههای گمشده:
روشهای ساده و پیچیده
🧑🏫 آمار توصیفی و استنباطی:
خلاصهسازی ویژگیهای دادهها
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
Forwarded from علم داده (Data Science)
@DataPlusScince__A visual Intoroduction to Deep Learning.pdf
5.3 MB
🌟آموزش بصری یادگیری عمیق
📘 این کتاب به شما کمک میکند تا به صورت بصری و بدون استفاده از فرمولهای پیچیده ریاضی و کدنویسی، مفاهیم یادگیری عمیق را درک کنید.
🔍 مباحث شامل: شبکههای عصبی، رگرسیون خطی و غیرخطی، طبقهبندی دودویی و چندکلاسه، و...
👨💻 نویسنده: معر عامر، دانشآموختهی امپریال کالج لندن و متخصص یادگیری عمیق.
#یادگیری_عمیق #کتاب_الکترونیک #یادگیری_ماشین #هوش_مصنوعی #آموزش
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📘 این کتاب به شما کمک میکند تا به صورت بصری و بدون استفاده از فرمولهای پیچیده ریاضی و کدنویسی، مفاهیم یادگیری عمیق را درک کنید.
🔍 مباحث شامل: شبکههای عصبی، رگرسیون خطی و غیرخطی، طبقهبندی دودویی و چندکلاسه، و...
👨💻 نویسنده: معر عامر، دانشآموختهی امپریال کالج لندن و متخصص یادگیری عمیق.
#یادگیری_عمیق #کتاب_الکترونیک #یادگیری_ماشین #هوش_مصنوعی #آموزش
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
Forwarded from علم داده (Data Science)
@DataPlusScience_Data_Science_Interview_Questions_and_Answers_.pdf
388.4 KB
🌟 سوالات و پاسخهای مصاحبه علم داده
📘 این جزوه شامل ۱۲۰ سوال واقعی یا الهام گرفته از مصاحبههای علم داده است که به شما کمک میکند تا برای نقش دانشمند داده آماده شوید.
🔍 سرفصلها:
📊 مدلسازی پیشبینی (Predictive Modeling)
💻 برنامهنویسی و پایگاهدادهها (Programming and Databases)
📈 احتمال و آمار (Probability and Statistics)
🔬 آزمایش و استنتاج (Experimentation and Inference)
📉 تحلیل داده و متریکهای محصول (Data Analysis and Product Metrics)
⚙️ مهندسی داده (Data Engineering)
🤖 یادگیری ماشین (Machine Learning)
🔄 طراحی سیستمها (System Design)
📚 مطالعات موردی (Case Studies)
🧠 مهارتهای نرم (Soft Skills)
#علم_داده #مصاحبه #آموزش #کتاب_الکترونیک #تحلیل_داده
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science #دیتاپلاسساینس
📘 این جزوه شامل ۱۲۰ سوال واقعی یا الهام گرفته از مصاحبههای علم داده است که به شما کمک میکند تا برای نقش دانشمند داده آماده شوید.
🔍 سرفصلها:
📊 مدلسازی پیشبینی (Predictive Modeling)
💻 برنامهنویسی و پایگاهدادهها (Programming and Databases)
📈 احتمال و آمار (Probability and Statistics)
🔬 آزمایش و استنتاج (Experimentation and Inference)
📉 تحلیل داده و متریکهای محصول (Data Analysis and Product Metrics)
⚙️ مهندسی داده (Data Engineering)
🤖 یادگیری ماشین (Machine Learning)
🔄 طراحی سیستمها (System Design)
📚 مطالعات موردی (Case Studies)
🧠 مهارتهای نرم (Soft Skills)
#علم_داده #مصاحبه #آموزش #کتاب_الکترونیک #تحلیل_داده
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science #دیتاپلاسساینس
Forwarded from علم داده (Data Science)
@DataPlusScience__Python Interview.pdf
4.6 MB
🔥 "چالشهای پیشرفته برای مصاحبه پایتون"
📄 این داکیومنت شامل "۱۲۰ سوال پیشرفته مصاحبه پایتون" است و برای آمادهسازی شما در مصاحبههای فنی پایتون طراحی شده است. مفاهیم و تکنیکهای پیشرفته پایتون را در بر میگیرد و شامل بخشهای زیر است:
🔧 مفاهیم پایهای و ترفندهای کارآمد: مانند استفاده از "pass" و کاهش زمان اجرای حلقهها (Loop Unrolling).
🌐 توسعه وب با Flask: مزایای استفاده از Flask در پروژههای میکروسرویس (Microservices Architecture).
🔍 مهارتهای برنامهنویسی پیشرفته: شامل دکوریتورها (Decorators) و مدیریت حافظه (Memory Management).
🧠 چالشهای الگوریتمی: مثل مرتبسازی دادهها (Sorting Algorithms) و جستجوی دودویی (Binary Search).
#پایتون #مصاحبه_فنی #برنامه_نویسی #توسعه_وب #الگوریتم #میکروسرویس
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science #دیتاپلاسساینس
📄 این داکیومنت شامل "۱۲۰ سوال پیشرفته مصاحبه پایتون" است و برای آمادهسازی شما در مصاحبههای فنی پایتون طراحی شده است. مفاهیم و تکنیکهای پیشرفته پایتون را در بر میگیرد و شامل بخشهای زیر است:
🔧 مفاهیم پایهای و ترفندهای کارآمد: مانند استفاده از "pass" و کاهش زمان اجرای حلقهها (Loop Unrolling).
🌐 توسعه وب با Flask: مزایای استفاده از Flask در پروژههای میکروسرویس (Microservices Architecture).
🔍 مهارتهای برنامهنویسی پیشرفته: شامل دکوریتورها (Decorators) و مدیریت حافظه (Memory Management).
🧠 چالشهای الگوریتمی: مثل مرتبسازی دادهها (Sorting Algorithms) و جستجوی دودویی (Binary Search).
#پایتون #مصاحبه_فنی #برنامه_نویسی #توسعه_وب #الگوریتم #میکروسرویس
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science #دیتاپلاسساینس
Forwarded from هوش مصنوعی | AI
#هوش_مصنوعی #AI #ابزار #AI_Tools #معرفی_ابزار
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from School of AI (Hamidreza Hosseinkhani)
در لینک زیر میتوانید مدلهای اوپن-سورس جدید و محبوب مثل Llama 3.1-405b و stable-video-diffusion رو که توسط NVIDIA NIM سرو میشه، امتحان کنید.
https://build.nvidia.com/explore/discover
https://build.nvidia.com/explore/discover
Forwarded from School of AI (Hamidreza Hosseinkhani)
اگر قصد مطالعهی مقالهی Attention is All You Need رو دارید،
بهجاش لینک زیر رو مطالعه کنید.
https://nlp.seas.harvard.edu/annotated-transformer/
در این لینک، بعضی از قسمتهای (نسبتا) اضافهی مقاله حذف شده و بخشهایی بهعنوان کامنت بهش اضافه شده.
مهمتر اینکه، همگام با مقاله، کد پاتورچ هم زده شده که به درک مقاله کمک شایانی میکنه.
بهجاش لینک زیر رو مطالعه کنید.
https://nlp.seas.harvard.edu/annotated-transformer/
در این لینک، بعضی از قسمتهای (نسبتا) اضافهی مقاله حذف شده و بخشهایی بهعنوان کامنت بهش اضافه شده.
مهمتر اینکه، همگام با مقاله، کد پاتورچ هم زده شده که به درک مقاله کمک شایانی میکنه.
Forwarded from DeepMind AI Expert (Mehdi Dehghani)
ورکشاپ #Diffusion_Models در #NeurIPS_2023
این ورکشاپ حدود 8 ساعت هست، در قسمت Schedule میتونید بخش دلخواه از ورکشاپ را ببینید:
https://neurips.cc/virtual/2023/workshop/66539
لینک زیر لیست سایر ورکشاپ های NeurIPS 2023 هست:
https://neurips.cc/virtual/2023/events/workshop
#منابع #ورکشاپ #کنفرانس #دیفیوژن #NeurIPS
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
این ورکشاپ حدود 8 ساعت هست، در قسمت Schedule میتونید بخش دلخواه از ورکشاپ را ببینید:
https://neurips.cc/virtual/2023/workshop/66539
لینک زیر لیست سایر ورکشاپ های NeurIPS 2023 هست:
https://neurips.cc/virtual/2023/events/workshop
#منابع #ورکشاپ #کنفرانس #دیفیوژن #NeurIPS
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Forwarded from مرجع دیتاست فارسی (دیتاهابر)
اگر شما هم مثل من مشکل دارید که وقتی میرید توی سایت medium.com و مقالات اکثرا پریمیوم هست و نمیتونید بخونید، باید بگم که خدا شما رو دوست داشته که این پست رو دیدید.😁
خب حالا راه حل چیه؟🤔
فقط کافیه لینک مقاله رو توی این سایت بزارید | readmedium.com | و تمام🪄.
Amirreza Heydari
خب حالا راه حل چیه؟🤔
فقط کافیه لینک مقاله رو توی این سایت بزارید | readmedium.com | و تمام🪄.
Amirreza Heydari
Forwarded from Tensorflow(@CVision) (Alister ☄️)
این ویدیو آموزشی درباره نحوه ذخیرهسازی اطلاعات در مدلهای زبان بزرگ هستش
ویدیو با یک مثال شروع میشه: اگر به یک مدل زبانی بزرگ عبارت
را بدین و از اون بخواین پیشبینی کنه که کلمه بعدی چی باید باشه، اگر مدل به درستی "بسکتبال"رو پیشبینی کنه، نشان دهنده این هستش که در جایی از صدها میلیارد پارامتر اون، اطلاعاتی درباره یک فرد خاص و ورزش خاص او ذخیره شده.
سپس ویدیو به این سوال میپردازه که این اطلاعات چگونه ذخیره میشن و کجا قرار دارند. محققان گوگل DeepMind در این زمینه تحقیق کردن و نتیجه گرفتن که این اطلاعات در بخشی از شبکههای عصبی به نام "چندلایه پرسپترون" (MLPs) ذخیره میشن، اما درک کامل مکانیسم این ذخیرهسازی هنوز حل نشده.
ویدیو سپس به جزئیات معماری ترانسفورمرها، که پایه و اساس بسیاری از مدلهای زبان بزرگ هستند، میپردازه. بخش اصلی این معماری "چندلایه پرسپترون"ه که محاسبات اون نسبتا ساده، اما تفسیر این محاسبات بسیار چالشبرانگیزه.
هدف اصلی ویدیو بررسی این محاسبات و ارائه یک مثال مشخص از نحوه ذخیرهسازی یک واقعیت در این بخش از شبکه ست. این مثال نشون میده که چگونه مدل میتونه واقعیت "مایکل جردن بسکتبال بازی میکند" را ذخیره کنه.
ویدیو سپس به جزئیات محاسبات در " پرسپترون چند لایه" میپردازه، از جمله ضرب ماتریسها و تابع غیرخطی ReLU. همچنین به تعداد پارامترهای این بخش و نحوه عملکرد آن در پیشبینی کلمه بعدی میپردازه.
در نهایت، ویدیو به ایده "اثر همپوشانی" اشاره میکنه که و توضیح میده چرا مدلهای زبان بزرگ با افزایش اندازه عملکرد بهتری دارن. این ایده میگه که در فضاهای با ابعاد بالا، میتوان اطلاعات زیادی را در فضاهای تقریبا عمود به هم ذخیره کرد، حتی اگر این اطلاعات کاملاً مستقل نباشن.
https://youtu.be/9-Jl0dxWQs8
ویدیو با یک مثال شروع میشه: اگر به یک مدل زبانی بزرگ عبارت
مایکل جردن ___ بازی میکند
را بدین و از اون بخواین پیشبینی کنه که کلمه بعدی چی باید باشه، اگر مدل به درستی "بسکتبال"رو پیشبینی کنه، نشان دهنده این هستش که در جایی از صدها میلیارد پارامتر اون، اطلاعاتی درباره یک فرد خاص و ورزش خاص او ذخیره شده.
سپس ویدیو به این سوال میپردازه که این اطلاعات چگونه ذخیره میشن و کجا قرار دارند. محققان گوگل DeepMind در این زمینه تحقیق کردن و نتیجه گرفتن که این اطلاعات در بخشی از شبکههای عصبی به نام "چندلایه پرسپترون" (MLPs) ذخیره میشن، اما درک کامل مکانیسم این ذخیرهسازی هنوز حل نشده.
ویدیو سپس به جزئیات معماری ترانسفورمرها، که پایه و اساس بسیاری از مدلهای زبان بزرگ هستند، میپردازه. بخش اصلی این معماری "چندلایه پرسپترون"ه که محاسبات اون نسبتا ساده، اما تفسیر این محاسبات بسیار چالشبرانگیزه.
هدف اصلی ویدیو بررسی این محاسبات و ارائه یک مثال مشخص از نحوه ذخیرهسازی یک واقعیت در این بخش از شبکه ست. این مثال نشون میده که چگونه مدل میتونه واقعیت "مایکل جردن بسکتبال بازی میکند" را ذخیره کنه.
ویدیو سپس به جزئیات محاسبات در " پرسپترون چند لایه" میپردازه، از جمله ضرب ماتریسها و تابع غیرخطی ReLU. همچنین به تعداد پارامترهای این بخش و نحوه عملکرد آن در پیشبینی کلمه بعدی میپردازه.
در نهایت، ویدیو به ایده "اثر همپوشانی" اشاره میکنه که و توضیح میده چرا مدلهای زبان بزرگ با افزایش اندازه عملکرد بهتری دارن. این ایده میگه که در فضاهای با ابعاد بالا، میتوان اطلاعات زیادی را در فضاهای تقریبا عمود به هم ذخیره کرد، حتی اگر این اطلاعات کاملاً مستقل نباشن.
https://youtu.be/9-Jl0dxWQs8
YouTube
How might LLMs store facts | Deep Learning Chapter 7
Unpacking the multilayer perceptrons in a transformer, and how they may store facts
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
An equally valuable form of support is to share the videos.
AI Alignment…
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
An equally valuable form of support is to share the videos.
AI Alignment…
Forwarded from دستاوردهای یادگیری عمیق(InTec)
قطعا
اما همونطور که میدونید بسیار بسیار پر دردسر هست مخصوصا اگر شما خودت متخصص باشی و بخوای داخلش دستکاری هم انجام بدی.
بسیار پروژههای جایگزین هم اومد ولی همچین شرایط بهتری نداشت؛ ۱-۲ مورد از مشکلات رو حل میکردند ولی توی باقی بخشها مشکلات رو داشتند.
حالا تیم
این تیم نه تنها مدل های متنی که مدلهای مربوط به تولید تصویر و حتی صدا و .... رو هم پشتیبانی میکنه.
کاستومایزیشنهای بسیار بیشتری برای افراد فنی میده و یک مدلها فوقالعاده داره که فیلتر و جستجوی قوی هم داره نسبت به
مشکلی که داره؛ هنوز تو مرحله توسعه اولیه هست برای همین ممکن به تعدادی باگ روی
https://nexaai.com/
ollama
جزو بهترین ابزارهایی بود که برای تست و mvp
و ... عالی بود.اما همونطور که میدونید بسیار بسیار پر دردسر هست مخصوصا اگر شما خودت متخصص باشی و بخوای داخلش دستکاری هم انجام بدی.
بسیار پروژههای جایگزین هم اومد ولی همچین شرایط بهتری نداشت؛ ۱-۲ مورد از مشکلات رو حل میکردند ولی توی باقی بخشها مشکلات رو داشتند.
حالا تیم
NeXAAI
هم وارد این رقابت شده و چه ورودی؛ با یک SDK
سادهاین تیم نه تنها مدل های متنی که مدلهای مربوط به تولید تصویر و حتی صدا و .... رو هم پشتیبانی میکنه.
کاستومایزیشنهای بسیار بیشتری برای افراد فنی میده و یک مدلها فوقالعاده داره که فیلتر و جستجوی قوی هم داره نسبت به
ollama
مشکلی که داره؛ هنوز تو مرحله توسعه اولیه هست برای همین ممکن به تعدادی باگ روی
serve
کردن و customization
بخورید؛ برای من با سوال و جواب حل شد.https://nexaai.com/
403
هم نخواهید گرفتNexa AI
Nexa AI | Accelerate Gen-AI Tasks on Any Device – Simplified AI Delivery for Enterprises
Skip the hassle of model compression and edge deployment. Nexa AI helps you build and scale low-latency, high-performance AI apps for text, audio, image, and multimodal tasks on-device.
Forwarded from دستاوردهای یادگیری عمیق(InTec)
یک سری از افراد اومدند و پرامپتهایی رو منتشر کردند که عملکردی مشابه
مدلهایی بوده که تست شده و توی تمام موارد عملکرد بسیار بهتری نشون داده نسبت به پرامپتهای معمول بطور خلاصه اینطوری هست که شما ۵-۶ پرامپت رو آماده میکنی و جواب هر مرحله رو بعنوان
من روش ۵ مرحلهای رو با عملکرد بهتر دیدم پس همون رو میگم:
۱- آنالیز مسئله؛ توی این مرحله از مدل میخواید که سوال کاربر رو بطور کامل تحلیل کنه (البته بصورت خلاصه) و نکات مهمش رو بهتون بده.
۲- برنامهریزی استراتژی؛ با توجه به خروجی مرحله قبل از مدل میخواید که چندتا استراتژی مختلف برای حل این مسئله ارائه بده (۳-۵ مورد کار رو در میاره)
۳- انتخاب استراتژی؛ توی این مرحله از مدل میخواید یکی از استراتژیهای مرحله قبل رو انتخاب کنه (موردی که منطقیتر هست)
۴- اقدامات لازم؛ از مدل میخواید که با توجه له استراتژی و آنالیز مسئله قدم به قدم آنچه برای حل مسئله نیاز هست رو در بیاره و بنویسه.
۵- در نهایت پرامپت اصلی کاربر + اقدامات لازم برای حل مسئله رو بعنوان ورودی به مدل میدید و بهش میگید که برای حل مسئله این اقدامات رو دنبال کنه تا جواب نهایی رو بگیره.
مجموع این ۵ مورد کنار هم عملکرد مدلهای معمول موجود رو بسیار بسیار بهبود میده.
هزینه کمتری هم نسبت به
chatGpt o1
رو پیادهسازی میکنه و شاید باعث سورپرایز شما هم بشه اما واقعا این روش باعث شده نتایج بسیار بهتری داده بشه توسط مدلها؛ llama3.1, gemini flash, qwen2, chatGpt-4omini
مدلهایی بوده که تست شده و توی تمام موارد عملکرد بسیار بهتری نشون داده نسبت به پرامپتهای معمول بطور خلاصه اینطوری هست که شما ۵-۶ پرامپت رو آماده میکنی و جواب هر مرحله رو بعنوان
history
برای مرحله بعدی ارسال میکنی.من روش ۵ مرحلهای رو با عملکرد بهتر دیدم پس همون رو میگم:
۱- آنالیز مسئله؛ توی این مرحله از مدل میخواید که سوال کاربر رو بطور کامل تحلیل کنه (البته بصورت خلاصه) و نکات مهمش رو بهتون بده.
۲- برنامهریزی استراتژی؛ با توجه به خروجی مرحله قبل از مدل میخواید که چندتا استراتژی مختلف برای حل این مسئله ارائه بده (۳-۵ مورد کار رو در میاره)
۳- انتخاب استراتژی؛ توی این مرحله از مدل میخواید یکی از استراتژیهای مرحله قبل رو انتخاب کنه (موردی که منطقیتر هست)
۴- اقدامات لازم؛ از مدل میخواید که با توجه له استراتژی و آنالیز مسئله قدم به قدم آنچه برای حل مسئله نیاز هست رو در بیاره و بنویسه.
۵- در نهایت پرامپت اصلی کاربر + اقدامات لازم برای حل مسئله رو بعنوان ورودی به مدل میدید و بهش میگید که برای حل مسئله این اقدامات رو دنبال کنه تا جواب نهایی رو بگیره.
مجموع این ۵ مورد کنار هم عملکرد مدلهای معمول موجود رو بسیار بسیار بهبود میده.
هزینه کمتری هم نسبت به
chatGpt-o1
دارهForwarded from PyTorch Howsam
کتاب Hands-on LLMs از آقای Jay Alammar
اخیرا این کتاب معرفی شده و مطابق انتظار با استقبال خوبی مواجه شده. آقای Jay Alammar رو هم احتمالا میشناسید دیگه! همون کسی که بلاگ پستهای آموزشی با شکلها و انیمیشنهای متنوع داره. این کتاب هم پر از شکلهای جالب هست که فهم مطالب رو برای مخاطب ساده میکنه. فهرست مطالب و یک نمونه شکل ساده از فصل اول کتاب رو براتون گذاشتم.
امسال چند تا کتاب خوب درباره LLM از افراد معتبر معرفی کردم:
* کتاب Afshine & Shervine Amidi
* کتاب Louis-François Bouchard
* کتاب Sebastian Raschka
@pytorch_howsam
اخیرا این کتاب معرفی شده و مطابق انتظار با استقبال خوبی مواجه شده. آقای Jay Alammar رو هم احتمالا میشناسید دیگه! همون کسی که بلاگ پستهای آموزشی با شکلها و انیمیشنهای متنوع داره. این کتاب هم پر از شکلهای جالب هست که فهم مطالب رو برای مخاطب ساده میکنه. فهرست مطالب و یک نمونه شکل ساده از فصل اول کتاب رو براتون گذاشتم.
امسال چند تا کتاب خوب درباره LLM از افراد معتبر معرفی کردم:
* کتاب Afshine & Shervine Amidi
* کتاب Louis-François Bouchard
* کتاب Sebastian Raschka
@pytorch_howsam
ابتدا با یسری معادلات سرانگشتی شروع میکنیم که OpenAi توی این بلاگ بهش اشاره کرده
📊✍️
هر توکن برابر با 4 کارکتر انگیلسی هست - هر توکن تقریباً برابر 3/4 کلمه است و هر پارگراف حدود 100 توکن میشه.
📝 هر مدل زبانی دارای میزان محدودی context ورودی هست البته که این میزان احتمالاً با گذر زمان بیشتر میشه ولی الان شاید محدودیتی برای چت به حساب بیاد.
مثلاً:
ChatGPT به میزان 128k
Claude به میزان 200k
در کمال ناباوری برای Gemini این عدد 1M هست. 😲
💡 به هر حال اگه توی چت مجموع توکن ورودی و خروجی از این میزان بیشتر باشه مدل شروع میکنه به فراموش کردن مباحث بالاتر در چت.
📌 برای اینکه این محدودیت اذیتکننده نشه، میتونیم از مدل بخواهیم که خلاصهای از کل چت رو بیان کنه که در حافظهاش بمونه.
🔗 یه اکستنشن توکن و کلمهشمار هم هست که در این لینک میتونین برای کروم نصب کنین.
🛠 بریم سراغ مهندسی پرامپت یخورده:
یه داکیومنت خوب هم در این آدرس هست.
📋 ساختار یه پرامپت ساده بهتر به شکل زیر باشه:
1️⃣ مشخص کنی فرمت خروجی به چه حالت باشه (یه توییت، پست بلاگ، مقاله علمی یا چت غیر رسمی و...)
2️⃣ موضوع متن خروجی و سطح آن مثلاً در حد کارشناس باشه (Expert) یا like I am 6
3️⃣ مشخصکننده ویژگی متن باشه مثلاً بگی در 800 کلمه یا ساختار ساده دارای خوانایی و روانی متن و...
🔖 مثال:
🔸 موارد درون پرانتز با توجه به موارد ذکر شده قابل تغییر میباشند.
✨ برخی از موارد در انتهای پرامپت میتونه خیلی موثر باشه:
Let's think step by step
Take a deep breath
If you can do it, I pay you 20 dollars 💸 (motivate)
🔖 مثال خلاقانه:
🎭 نکته بعدی دادن Role به LLM هست:
تصور کن تو یه پایتون دوپلور حرفهای هستی که در گوگل به عنوان برنامهنویس ارشد کار میکنی.
مانند یک نویسنده قوی که نوشتههای بیشترین فروش در آمازون رو داره.
You are Shakespeare, an English writer. Write me a poem.
📌 سعی کنین در هنگام تخصیص نقش به مدل با جزئیات زیادی بیان کنین که کلمات مراعات نظیر اون ما رو به نتیجه نهایی که میخواهیم نزدیکتر کنه.
✨ خلاصه به عنوان نتیجهگیری:
هر چی بیشتر توضیح بدی، حتی توضیحهای بدیهی، بیشتر آش میخوری! 😄
💬 به نظرم کلماتی مثل:
think, reasoning, like human, step by step, check it that be correct
میتونه اثر بخشی پرامپت رو بیشتر کنه.
#مهندسی_پرامپت
#قسمت_اول
#LLM
🌟🧠
📊✍️
هر توکن برابر با 4 کارکتر انگیلسی هست - هر توکن تقریباً برابر 3/4 کلمه است و هر پارگراف حدود 100 توکن میشه.
📝 هر مدل زبانی دارای میزان محدودی context ورودی هست البته که این میزان احتمالاً با گذر زمان بیشتر میشه ولی الان شاید محدودیتی برای چت به حساب بیاد.
مثلاً:
ChatGPT به میزان 128k
Claude به میزان 200k
در کمال ناباوری برای Gemini این عدد 1M هست. 😲
💡 به هر حال اگه توی چت مجموع توکن ورودی و خروجی از این میزان بیشتر باشه مدل شروع میکنه به فراموش کردن مباحث بالاتر در چت.
📌 برای اینکه این محدودیت اذیتکننده نشه، میتونیم از مدل بخواهیم که خلاصهای از کل چت رو بیان کنه که در حافظهاش بمونه.
🔗 یه اکستنشن توکن و کلمهشمار هم هست که در این لینک میتونین برای کروم نصب کنین.
🛠 بریم سراغ مهندسی پرامپت یخورده:
یه داکیومنت خوب هم در این آدرس هست.
📋 ساختار یه پرامپت ساده بهتر به شکل زیر باشه:
1️⃣ مشخص کنی فرمت خروجی به چه حالت باشه (یه توییت، پست بلاگ، مقاله علمی یا چت غیر رسمی و...)
2️⃣ موضوع متن خروجی و سطح آن مثلاً در حد کارشناس باشه (Expert) یا like I am 6
3️⃣ مشخصکننده ویژگی متن باشه مثلاً بگی در 800 کلمه یا ساختار ساده دارای خوانایی و روانی متن و...
🔖 مثال:
Write a (blog post) about (healthy eating). Address it to (working professionals) and use keywords that are relevant for SEO. Write the text in a (simple, understandable style) so that it is easy to read and comprehend. The length should be (800 words), and the text should be well-structured.
🔸 موارد درون پرانتز با توجه به موارد ذکر شده قابل تغییر میباشند.
✨ برخی از موارد در انتهای پرامپت میتونه خیلی موثر باشه:
Let's think step by step
Take a deep breath
If you can do it, I pay you 20 dollars 💸 (motivate)
🔖 مثال خلاقانه:
How can I install Python and play Snake?
Take a deep breath and think step by step.
You can do it because I give you 20 dollars.
🎭 نکته بعدی دادن Role به LLM هست:
تصور کن تو یه پایتون دوپلور حرفهای هستی که در گوگل به عنوان برنامهنویس ارشد کار میکنی.
مانند یک نویسنده قوی که نوشتههای بیشترین فروش در آمازون رو داره.
You are Shakespeare, an English writer. Write me a poem.
📌 سعی کنین در هنگام تخصیص نقش به مدل با جزئیات زیادی بیان کنین که کلمات مراعات نظیر اون ما رو به نتیجه نهایی که میخواهیم نزدیکتر کنه.
✨ خلاصه به عنوان نتیجهگیری:
هر چی بیشتر توضیح بدی، حتی توضیحهای بدیهی، بیشتر آش میخوری! 😄
💬 به نظرم کلماتی مثل:
think, reasoning, like human, step by step, check it that be correct
میتونه اثر بخشی پرامپت رو بیشتر کنه.
#مهندسی_پرامپت
#قسمت_اول
#LLM
🌟🧠