Forwarded from Python4Finance
معرفی ماژول PyCaret یک ماژول بی نظیر برای یادگیری ماشین
یکی از ویژگی های بسیار جالب و هیجان انگیز پایتون ماژول های بسیار فراوانی است که دست ما را برای توسعه نرم افزارها باز می کند. PyCaret یک ماژول متن باز برای انجام کارهای یادگیری ماشین است که با حداقل ترین حالت کد نویسی، نیازهای شما را برای اجرای مدلها برآورده می کند.
یکی از ویژگی های جذاب این ماژول، مقایسه مدلها با یکدیگر در یک جدول مقایسه ای است.
این ماژول برای دانشجویان کارشناسی ارشد و دکتری که دنبال انجام سریع مدلها و مقایسه آنها با یکدیگر هستند بسیار کاربردی و مفید خواهد بود.
🌐 لینک گیت هاب ماژول
#یادگیری_ماشین
#Machine_Learning
#PyCaret
پایتون برای مالی
🆔 t.me/python4finance
🆔 ble.ir/python4finance
یکی از ویژگی های بسیار جالب و هیجان انگیز پایتون ماژول های بسیار فراوانی است که دست ما را برای توسعه نرم افزارها باز می کند. PyCaret یک ماژول متن باز برای انجام کارهای یادگیری ماشین است که با حداقل ترین حالت کد نویسی، نیازهای شما را برای اجرای مدلها برآورده می کند.
یکی از ویژگی های جذاب این ماژول، مقایسه مدلها با یکدیگر در یک جدول مقایسه ای است.
این ماژول برای دانشجویان کارشناسی ارشد و دکتری که دنبال انجام سریع مدلها و مقایسه آنها با یکدیگر هستند بسیار کاربردی و مفید خواهد بود.
🌐 لینک گیت هاب ماژول
#یادگیری_ماشین
#Machine_Learning
#PyCaret
پایتون برای مالی
🆔 t.me/python4finance
🆔 ble.ir/python4finance
Forwarded from DLeX: AI Python (NaviD DariYa)
راهنمای خیلی خوبیه برای پیش پردازش داده های متنی با کتابخانه #توکنایزر خود HuggingFace
https://www.kdnuggets.com/how-to-use-the-hugging-face-tokenizers-library-to-preprocess-text-data
https://www.kdnuggets.com/how-to-use-the-hugging-face-tokenizers-library-to-preprocess-text-data
KDnuggets
How to Use the Hugging Face Tokenizers Library to Preprocess Text Data
Text preprocessing is an important step in NLP. Let's learn how to use the Hugging Face Tokenizers Library to preprocess text data.
Forwarded from علم داده (Data Science)
این تصویر به دستهبندی و توضیح حوزههای مختلف هوش مصنوعی (AI) میپردازد:
🤖 هوش مصنوعی (AI): ساخت ماشینهایی با رفتار هوشمند (Intelligent Behavior).
یادگیری ماشین (ML):
🏷 نظارتشده (Supervised Learning): آموزش با دادههای برچسبدار.
🔍 بدون نظارت (Unsupervised Learning): شناسایی الگوها در دادههای بدون برچسب.
🏆 تقویتی (Reinforcement Learning): یادگیری از طریق پاداش و مجازات.
🌐 یادگیری عمیق (Deep Learning): استفاده از شبکههای چندلایه (Multi-layered Networks) برای مدلسازی الگوهای پیچیده.
🧠 شبکههای عصبی عمیق (DNNs): شبکههای چندلایهای ضروری برای یادگیری عمیق
🔬 شبکههای عصبی (Neural Networks): مدلهای الهام گرفته از مغز برای تشخیص الگوها.
📷 شبکههای عصبی پیچشی (CNNs): شبکههایی برای شناسایی تصاویر.
🖼 هوش مصنوعی تولیدی (Generative AI): ایجاد دادههای جدید مشابه با دادههای آموزشی، با استفاده از GANs و VAEs.
📝 مدلهای زبان مبتنی بر ترنسفورمر: معماریهای تخصصی برای پردازش زبان طبیعی مثل ChatGPT.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
🤖 هوش مصنوعی (AI): ساخت ماشینهایی با رفتار هوشمند (Intelligent Behavior).
یادگیری ماشین (ML):
🏷 نظارتشده (Supervised Learning): آموزش با دادههای برچسبدار.
🔍 بدون نظارت (Unsupervised Learning): شناسایی الگوها در دادههای بدون برچسب.
🏆 تقویتی (Reinforcement Learning): یادگیری از طریق پاداش و مجازات.
🌐 یادگیری عمیق (Deep Learning): استفاده از شبکههای چندلایه (Multi-layered Networks) برای مدلسازی الگوهای پیچیده.
🧠 شبکههای عصبی عمیق (DNNs): شبکههای چندلایهای ضروری برای یادگیری عمیق
🔬 شبکههای عصبی (Neural Networks): مدلهای الهام گرفته از مغز برای تشخیص الگوها.
📷 شبکههای عصبی پیچشی (CNNs): شبکههایی برای شناسایی تصاویر.
🖼 هوش مصنوعی تولیدی (Generative AI): ایجاد دادههای جدید مشابه با دادههای آموزشی، با استفاده از GANs و VAEs.
📝 مدلهای زبان مبتنی بر ترنسفورمر: معماریهای تخصصی برای پردازش زبان طبیعی مثل ChatGPT.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
Forwarded from DeepMind AI Expert (Farzad)
◾️ List of SQL Data Science Interview Questions
1️⃣ Amazon company SQL interview question
📎 Link: Amazon SQL Interview
2️⃣ Airbnb SQL interview question
📎 Link: Airbnb SQL Interview Question
3️⃣ Adobe SQL Interview Question
📎 Link: Adobe SQL Interview Question
4️⃣ Spotify SQL Interview Question
📎 Link: Spotify SQL Interview Question
5️⃣ L&T Company SQL Interview Question
📎 Link: L&T SQL Interview Question
6️⃣ Ameriprise LLC SQL query
📎 Link: Ameriprise LLC SQL Interview
7️⃣ SQL query from Tiger Analytics
📎 Link: Tiger Analytics SQL Interview
8️⃣ PWC SQL Interview Question
📎 Link: PWC SQL Interview Question
9️⃣ Honeywell SQL Interview Question
📎 Link: Honeywell SQL Interview
1️⃣ Angel One Company SQL Interview Question
📎 Link: Angel One SQL Interview
1️⃣ SQL interview questions of FAANG companies
📎 Link: FAANG SQL Interview Question
1️⃣ Accenture SQL Interview Question
📎 Link: Accenture SQL Interview
#مصاحبه #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
1️⃣ Amazon company SQL interview question
📎 Link: Amazon SQL Interview
2️⃣ Airbnb SQL interview question
📎 Link: Airbnb SQL Interview Question
3️⃣ Adobe SQL Interview Question
📎 Link: Adobe SQL Interview Question
4️⃣ Spotify SQL Interview Question
📎 Link: Spotify SQL Interview Question
5️⃣ L&T Company SQL Interview Question
📎 Link: L&T SQL Interview Question
6️⃣ Ameriprise LLC SQL query
📎 Link: Ameriprise LLC SQL Interview
7️⃣ SQL query from Tiger Analytics
📎 Link: Tiger Analytics SQL Interview
8️⃣ PWC SQL Interview Question
📎 Link: PWC SQL Interview Question
9️⃣ Honeywell SQL Interview Question
📎 Link: Honeywell SQL Interview
1️⃣ Angel One Company SQL Interview Question
📎 Link: Angel One SQL Interview
1️⃣ SQL interview questions of FAANG companies
📎 Link: FAANG SQL Interview Question
1️⃣ Accenture SQL Interview Question
📎 Link: Accenture SQL Interview
#مصاحبه #منابع
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Forwarded from علم داده (Data Science)
@DataPlusScience__STATISTICS QUESTIONS FOR DATA SCIENCE.pdf
2.5 MB
✅ ۱۰۹ سوال آمار برای علم داده
این فایل شامل ۱۰۹ سوال مهم آماری برای مصاحبههای شغلی در زمینه علم داده (Data Science) است. با مطالعه این سوالات میتوانید آمادگی لازم برای سوالات رایج در مصاحبههای شغلی را به دست آورید.
📑 سرفصلهای مطالب:
📊 مفاهیم آماری مهم:
اندازهگیری گرایش مرکزی (Measure of Central Tendency)
اندازهگیری پراکندگی (Measure of Dispersion)
کوواریانس و همبستگی (Covariance and Correlation)
تابع توزیع احتمالی (Probability Distribution Function)
قضیه حد مرکزی (Central Limit Theorem)
آزمون فرضیه (Hypothesis Testing)
🔍 تحلیل اکتشافی داده (EDA):
تحلیل بصری و آماری دادهها
شناسایی الگوها
📈 انواع دادهها:
دادههای کمی (Quantitative Data)
دادههای کیفی (Qualitative Data)
🧮 تحلیل دادهها:
تکمتغیره، دومتغیره و چندمتغیره
⚠️ پرکردن دادههای گمشده:
روشهای ساده و پیچیده
🧑🏫 آمار توصیفی و استنباطی:
خلاصهسازی ویژگیهای دادهها
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
این فایل شامل ۱۰۹ سوال مهم آماری برای مصاحبههای شغلی در زمینه علم داده (Data Science) است. با مطالعه این سوالات میتوانید آمادگی لازم برای سوالات رایج در مصاحبههای شغلی را به دست آورید.
📑 سرفصلهای مطالب:
📊 مفاهیم آماری مهم:
اندازهگیری گرایش مرکزی (Measure of Central Tendency)
اندازهگیری پراکندگی (Measure of Dispersion)
کوواریانس و همبستگی (Covariance and Correlation)
تابع توزیع احتمالی (Probability Distribution Function)
قضیه حد مرکزی (Central Limit Theorem)
آزمون فرضیه (Hypothesis Testing)
🔍 تحلیل اکتشافی داده (EDA):
تحلیل بصری و آماری دادهها
شناسایی الگوها
📈 انواع دادهها:
دادههای کمی (Quantitative Data)
دادههای کیفی (Qualitative Data)
🧮 تحلیل دادهها:
تکمتغیره، دومتغیره و چندمتغیره
⚠️ پرکردن دادههای گمشده:
روشهای ساده و پیچیده
🧑🏫 آمار توصیفی و استنباطی:
خلاصهسازی ویژگیهای دادهها
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
Forwarded from علم داده (Data Science)
@DataPlusScince__A visual Intoroduction to Deep Learning.pdf
5.3 MB
🌟آموزش بصری یادگیری عمیق
📘 این کتاب به شما کمک میکند تا به صورت بصری و بدون استفاده از فرمولهای پیچیده ریاضی و کدنویسی، مفاهیم یادگیری عمیق را درک کنید.
🔍 مباحث شامل: شبکههای عصبی، رگرسیون خطی و غیرخطی، طبقهبندی دودویی و چندکلاسه، و...
👨💻 نویسنده: معر عامر، دانشآموختهی امپریال کالج لندن و متخصص یادگیری عمیق.
#یادگیری_عمیق #کتاب_الکترونیک #یادگیری_ماشین #هوش_مصنوعی #آموزش
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📘 این کتاب به شما کمک میکند تا به صورت بصری و بدون استفاده از فرمولهای پیچیده ریاضی و کدنویسی، مفاهیم یادگیری عمیق را درک کنید.
🔍 مباحث شامل: شبکههای عصبی، رگرسیون خطی و غیرخطی، طبقهبندی دودویی و چندکلاسه، و...
👨💻 نویسنده: معر عامر، دانشآموختهی امپریال کالج لندن و متخصص یادگیری عمیق.
#یادگیری_عمیق #کتاب_الکترونیک #یادگیری_ماشین #هوش_مصنوعی #آموزش
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
Forwarded from علم داده (Data Science)
@DataPlusScience_Data_Science_Interview_Questions_and_Answers_.pdf
388.4 KB
🌟 سوالات و پاسخهای مصاحبه علم داده
📘 این جزوه شامل ۱۲۰ سوال واقعی یا الهام گرفته از مصاحبههای علم داده است که به شما کمک میکند تا برای نقش دانشمند داده آماده شوید.
🔍 سرفصلها:
📊 مدلسازی پیشبینی (Predictive Modeling)
💻 برنامهنویسی و پایگاهدادهها (Programming and Databases)
📈 احتمال و آمار (Probability and Statistics)
🔬 آزمایش و استنتاج (Experimentation and Inference)
📉 تحلیل داده و متریکهای محصول (Data Analysis and Product Metrics)
⚙️ مهندسی داده (Data Engineering)
🤖 یادگیری ماشین (Machine Learning)
🔄 طراحی سیستمها (System Design)
📚 مطالعات موردی (Case Studies)
🧠 مهارتهای نرم (Soft Skills)
#علم_داده #مصاحبه #آموزش #کتاب_الکترونیک #تحلیل_داده
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science #دیتاپلاسساینس
📘 این جزوه شامل ۱۲۰ سوال واقعی یا الهام گرفته از مصاحبههای علم داده است که به شما کمک میکند تا برای نقش دانشمند داده آماده شوید.
🔍 سرفصلها:
📊 مدلسازی پیشبینی (Predictive Modeling)
💻 برنامهنویسی و پایگاهدادهها (Programming and Databases)
📈 احتمال و آمار (Probability and Statistics)
🔬 آزمایش و استنتاج (Experimentation and Inference)
📉 تحلیل داده و متریکهای محصول (Data Analysis and Product Metrics)
⚙️ مهندسی داده (Data Engineering)
🤖 یادگیری ماشین (Machine Learning)
🔄 طراحی سیستمها (System Design)
📚 مطالعات موردی (Case Studies)
🧠 مهارتهای نرم (Soft Skills)
#علم_داده #مصاحبه #آموزش #کتاب_الکترونیک #تحلیل_داده
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science #دیتاپلاسساینس
Forwarded from علم داده (Data Science)
@DataPlusScience__Python Interview.pdf
4.6 MB
🔥 "چالشهای پیشرفته برای مصاحبه پایتون"
📄 این داکیومنت شامل "۱۲۰ سوال پیشرفته مصاحبه پایتون" است و برای آمادهسازی شما در مصاحبههای فنی پایتون طراحی شده است. مفاهیم و تکنیکهای پیشرفته پایتون را در بر میگیرد و شامل بخشهای زیر است:
🔧 مفاهیم پایهای و ترفندهای کارآمد: مانند استفاده از "pass" و کاهش زمان اجرای حلقهها (Loop Unrolling).
🌐 توسعه وب با Flask: مزایای استفاده از Flask در پروژههای میکروسرویس (Microservices Architecture).
🔍 مهارتهای برنامهنویسی پیشرفته: شامل دکوریتورها (Decorators) و مدیریت حافظه (Memory Management).
🧠 چالشهای الگوریتمی: مثل مرتبسازی دادهها (Sorting Algorithms) و جستجوی دودویی (Binary Search).
#پایتون #مصاحبه_فنی #برنامه_نویسی #توسعه_وب #الگوریتم #میکروسرویس
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science #دیتاپلاسساینس
📄 این داکیومنت شامل "۱۲۰ سوال پیشرفته مصاحبه پایتون" است و برای آمادهسازی شما در مصاحبههای فنی پایتون طراحی شده است. مفاهیم و تکنیکهای پیشرفته پایتون را در بر میگیرد و شامل بخشهای زیر است:
🔧 مفاهیم پایهای و ترفندهای کارآمد: مانند استفاده از "pass" و کاهش زمان اجرای حلقهها (Loop Unrolling).
🌐 توسعه وب با Flask: مزایای استفاده از Flask در پروژههای میکروسرویس (Microservices Architecture).
🔍 مهارتهای برنامهنویسی پیشرفته: شامل دکوریتورها (Decorators) و مدیریت حافظه (Memory Management).
🧠 چالشهای الگوریتمی: مثل مرتبسازی دادهها (Sorting Algorithms) و جستجوی دودویی (Binary Search).
#پایتون #مصاحبه_فنی #برنامه_نویسی #توسعه_وب #الگوریتم #میکروسرویس
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science #دیتاپلاسساینس
Forwarded from هوش مصنوعی | AI
#هوش_مصنوعی #AI #ابزار #AI_Tools #معرفی_ابزار
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from School of AI (Hamidreza Hosseinkhani)
در لینک زیر میتوانید مدلهای اوپن-سورس جدید و محبوب مثل Llama 3.1-405b و stable-video-diffusion رو که توسط NVIDIA NIM سرو میشه، امتحان کنید.
https://build.nvidia.com/explore/discover
https://build.nvidia.com/explore/discover
Forwarded from School of AI (Hamidreza Hosseinkhani)
اگر قصد مطالعهی مقالهی Attention is All You Need رو دارید،
بهجاش لینک زیر رو مطالعه کنید.
https://nlp.seas.harvard.edu/annotated-transformer/
در این لینک، بعضی از قسمتهای (نسبتا) اضافهی مقاله حذف شده و بخشهایی بهعنوان کامنت بهش اضافه شده.
مهمتر اینکه، همگام با مقاله، کد پاتورچ هم زده شده که به درک مقاله کمک شایانی میکنه.
بهجاش لینک زیر رو مطالعه کنید.
https://nlp.seas.harvard.edu/annotated-transformer/
در این لینک، بعضی از قسمتهای (نسبتا) اضافهی مقاله حذف شده و بخشهایی بهعنوان کامنت بهش اضافه شده.
مهمتر اینکه، همگام با مقاله، کد پاتورچ هم زده شده که به درک مقاله کمک شایانی میکنه.
Forwarded from DeepMind AI Expert (Mehdi Dehghani)
ورکشاپ #Diffusion_Models در #NeurIPS_2023
این ورکشاپ حدود 8 ساعت هست، در قسمت Schedule میتونید بخش دلخواه از ورکشاپ را ببینید:
https://neurips.cc/virtual/2023/workshop/66539
لینک زیر لیست سایر ورکشاپ های NeurIPS 2023 هست:
https://neurips.cc/virtual/2023/events/workshop
#منابع #ورکشاپ #کنفرانس #دیفیوژن #NeurIPS
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
این ورکشاپ حدود 8 ساعت هست، در قسمت Schedule میتونید بخش دلخواه از ورکشاپ را ببینید:
https://neurips.cc/virtual/2023/workshop/66539
لینک زیر لیست سایر ورکشاپ های NeurIPS 2023 هست:
https://neurips.cc/virtual/2023/events/workshop
#منابع #ورکشاپ #کنفرانس #دیفیوژن #NeurIPS
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
Forwarded from مرجع دیتاست فارسی (دیتاهابر)
اگر شما هم مثل من مشکل دارید که وقتی میرید توی سایت medium.com و مقالات اکثرا پریمیوم هست و نمیتونید بخونید، باید بگم که خدا شما رو دوست داشته که این پست رو دیدید.😁
خب حالا راه حل چیه؟🤔
فقط کافیه لینک مقاله رو توی این سایت بزارید | readmedium.com | و تمام🪄.
Amirreza Heydari
خب حالا راه حل چیه؟🤔
فقط کافیه لینک مقاله رو توی این سایت بزارید | readmedium.com | و تمام🪄.
Amirreza Heydari
Forwarded from Tensorflow(@CVision) (Alister ☄️)
این ویدیو آموزشی درباره نحوه ذخیرهسازی اطلاعات در مدلهای زبان بزرگ هستش
ویدیو با یک مثال شروع میشه: اگر به یک مدل زبانی بزرگ عبارت
را بدین و از اون بخواین پیشبینی کنه که کلمه بعدی چی باید باشه، اگر مدل به درستی "بسکتبال"رو پیشبینی کنه، نشان دهنده این هستش که در جایی از صدها میلیارد پارامتر اون، اطلاعاتی درباره یک فرد خاص و ورزش خاص او ذخیره شده.
سپس ویدیو به این سوال میپردازه که این اطلاعات چگونه ذخیره میشن و کجا قرار دارند. محققان گوگل DeepMind در این زمینه تحقیق کردن و نتیجه گرفتن که این اطلاعات در بخشی از شبکههای عصبی به نام "چندلایه پرسپترون" (MLPs) ذخیره میشن، اما درک کامل مکانیسم این ذخیرهسازی هنوز حل نشده.
ویدیو سپس به جزئیات معماری ترانسفورمرها، که پایه و اساس بسیاری از مدلهای زبان بزرگ هستند، میپردازه. بخش اصلی این معماری "چندلایه پرسپترون"ه که محاسبات اون نسبتا ساده، اما تفسیر این محاسبات بسیار چالشبرانگیزه.
هدف اصلی ویدیو بررسی این محاسبات و ارائه یک مثال مشخص از نحوه ذخیرهسازی یک واقعیت در این بخش از شبکه ست. این مثال نشون میده که چگونه مدل میتونه واقعیت "مایکل جردن بسکتبال بازی میکند" را ذخیره کنه.
ویدیو سپس به جزئیات محاسبات در " پرسپترون چند لایه" میپردازه، از جمله ضرب ماتریسها و تابع غیرخطی ReLU. همچنین به تعداد پارامترهای این بخش و نحوه عملکرد آن در پیشبینی کلمه بعدی میپردازه.
در نهایت، ویدیو به ایده "اثر همپوشانی" اشاره میکنه که و توضیح میده چرا مدلهای زبان بزرگ با افزایش اندازه عملکرد بهتری دارن. این ایده میگه که در فضاهای با ابعاد بالا، میتوان اطلاعات زیادی را در فضاهای تقریبا عمود به هم ذخیره کرد، حتی اگر این اطلاعات کاملاً مستقل نباشن.
https://youtu.be/9-Jl0dxWQs8
ویدیو با یک مثال شروع میشه: اگر به یک مدل زبانی بزرگ عبارت
مایکل جردن ___ بازی میکند
را بدین و از اون بخواین پیشبینی کنه که کلمه بعدی چی باید باشه، اگر مدل به درستی "بسکتبال"رو پیشبینی کنه، نشان دهنده این هستش که در جایی از صدها میلیارد پارامتر اون، اطلاعاتی درباره یک فرد خاص و ورزش خاص او ذخیره شده.
سپس ویدیو به این سوال میپردازه که این اطلاعات چگونه ذخیره میشن و کجا قرار دارند. محققان گوگل DeepMind در این زمینه تحقیق کردن و نتیجه گرفتن که این اطلاعات در بخشی از شبکههای عصبی به نام "چندلایه پرسپترون" (MLPs) ذخیره میشن، اما درک کامل مکانیسم این ذخیرهسازی هنوز حل نشده.
ویدیو سپس به جزئیات معماری ترانسفورمرها، که پایه و اساس بسیاری از مدلهای زبان بزرگ هستند، میپردازه. بخش اصلی این معماری "چندلایه پرسپترون"ه که محاسبات اون نسبتا ساده، اما تفسیر این محاسبات بسیار چالشبرانگیزه.
هدف اصلی ویدیو بررسی این محاسبات و ارائه یک مثال مشخص از نحوه ذخیرهسازی یک واقعیت در این بخش از شبکه ست. این مثال نشون میده که چگونه مدل میتونه واقعیت "مایکل جردن بسکتبال بازی میکند" را ذخیره کنه.
ویدیو سپس به جزئیات محاسبات در " پرسپترون چند لایه" میپردازه، از جمله ضرب ماتریسها و تابع غیرخطی ReLU. همچنین به تعداد پارامترهای این بخش و نحوه عملکرد آن در پیشبینی کلمه بعدی میپردازه.
در نهایت، ویدیو به ایده "اثر همپوشانی" اشاره میکنه که و توضیح میده چرا مدلهای زبان بزرگ با افزایش اندازه عملکرد بهتری دارن. این ایده میگه که در فضاهای با ابعاد بالا، میتوان اطلاعات زیادی را در فضاهای تقریبا عمود به هم ذخیره کرد، حتی اگر این اطلاعات کاملاً مستقل نباشن.
https://youtu.be/9-Jl0dxWQs8
YouTube
How might LLMs store facts | Deep Learning Chapter 7
Unpacking the multilayer perceptrons in a transformer, and how they may store facts
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
An equally valuable form of support is to share the videos.
AI Alignment…
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
An equally valuable form of support is to share the videos.
AI Alignment…
Forwarded from دستاوردهای یادگیری عمیق(InTec)
قطعا
اما همونطور که میدونید بسیار بسیار پر دردسر هست مخصوصا اگر شما خودت متخصص باشی و بخوای داخلش دستکاری هم انجام بدی.
بسیار پروژههای جایگزین هم اومد ولی همچین شرایط بهتری نداشت؛ ۱-۲ مورد از مشکلات رو حل میکردند ولی توی باقی بخشها مشکلات رو داشتند.
حالا تیم
این تیم نه تنها مدل های متنی که مدلهای مربوط به تولید تصویر و حتی صدا و .... رو هم پشتیبانی میکنه.
کاستومایزیشنهای بسیار بیشتری برای افراد فنی میده و یک مدلها فوقالعاده داره که فیلتر و جستجوی قوی هم داره نسبت به
مشکلی که داره؛ هنوز تو مرحله توسعه اولیه هست برای همین ممکن به تعدادی باگ روی
https://nexaai.com/
ollama
جزو بهترین ابزارهایی بود که برای تست و mvp
و ... عالی بود.اما همونطور که میدونید بسیار بسیار پر دردسر هست مخصوصا اگر شما خودت متخصص باشی و بخوای داخلش دستکاری هم انجام بدی.
بسیار پروژههای جایگزین هم اومد ولی همچین شرایط بهتری نداشت؛ ۱-۲ مورد از مشکلات رو حل میکردند ولی توی باقی بخشها مشکلات رو داشتند.
حالا تیم
NeXAAI
هم وارد این رقابت شده و چه ورودی؛ با یک SDK
سادهاین تیم نه تنها مدل های متنی که مدلهای مربوط به تولید تصویر و حتی صدا و .... رو هم پشتیبانی میکنه.
کاستومایزیشنهای بسیار بیشتری برای افراد فنی میده و یک مدلها فوقالعاده داره که فیلتر و جستجوی قوی هم داره نسبت به
ollama
مشکلی که داره؛ هنوز تو مرحله توسعه اولیه هست برای همین ممکن به تعدادی باگ روی
serve
کردن و customization
بخورید؛ برای من با سوال و جواب حل شد.https://nexaai.com/
403
هم نخواهید گرفتNexa AI
Nexa AI | Accelerate Gen-AI Tasks on Any Device – Simplified AI Delivery for Enterprises
Skip the hassle of model compression and edge deployment. Nexa AI helps you build and scale low-latency, high-performance AI apps for text, audio, image, and multimodal tasks on-device.
Forwarded from دستاوردهای یادگیری عمیق(InTec)
یک سری از افراد اومدند و پرامپتهایی رو منتشر کردند که عملکردی مشابه
مدلهایی بوده که تست شده و توی تمام موارد عملکرد بسیار بهتری نشون داده نسبت به پرامپتهای معمول بطور خلاصه اینطوری هست که شما ۵-۶ پرامپت رو آماده میکنی و جواب هر مرحله رو بعنوان
من روش ۵ مرحلهای رو با عملکرد بهتر دیدم پس همون رو میگم:
۱- آنالیز مسئله؛ توی این مرحله از مدل میخواید که سوال کاربر رو بطور کامل تحلیل کنه (البته بصورت خلاصه) و نکات مهمش رو بهتون بده.
۲- برنامهریزی استراتژی؛ با توجه به خروجی مرحله قبل از مدل میخواید که چندتا استراتژی مختلف برای حل این مسئله ارائه بده (۳-۵ مورد کار رو در میاره)
۳- انتخاب استراتژی؛ توی این مرحله از مدل میخواید یکی از استراتژیهای مرحله قبل رو انتخاب کنه (موردی که منطقیتر هست)
۴- اقدامات لازم؛ از مدل میخواید که با توجه له استراتژی و آنالیز مسئله قدم به قدم آنچه برای حل مسئله نیاز هست رو در بیاره و بنویسه.
۵- در نهایت پرامپت اصلی کاربر + اقدامات لازم برای حل مسئله رو بعنوان ورودی به مدل میدید و بهش میگید که برای حل مسئله این اقدامات رو دنبال کنه تا جواب نهایی رو بگیره.
مجموع این ۵ مورد کنار هم عملکرد مدلهای معمول موجود رو بسیار بسیار بهبود میده.
هزینه کمتری هم نسبت به
chatGpt o1
رو پیادهسازی میکنه و شاید باعث سورپرایز شما هم بشه اما واقعا این روش باعث شده نتایج بسیار بهتری داده بشه توسط مدلها؛ llama3.1, gemini flash, qwen2, chatGpt-4omini
مدلهایی بوده که تست شده و توی تمام موارد عملکرد بسیار بهتری نشون داده نسبت به پرامپتهای معمول بطور خلاصه اینطوری هست که شما ۵-۶ پرامپت رو آماده میکنی و جواب هر مرحله رو بعنوان
history
برای مرحله بعدی ارسال میکنی.من روش ۵ مرحلهای رو با عملکرد بهتر دیدم پس همون رو میگم:
۱- آنالیز مسئله؛ توی این مرحله از مدل میخواید که سوال کاربر رو بطور کامل تحلیل کنه (البته بصورت خلاصه) و نکات مهمش رو بهتون بده.
۲- برنامهریزی استراتژی؛ با توجه به خروجی مرحله قبل از مدل میخواید که چندتا استراتژی مختلف برای حل این مسئله ارائه بده (۳-۵ مورد کار رو در میاره)
۳- انتخاب استراتژی؛ توی این مرحله از مدل میخواید یکی از استراتژیهای مرحله قبل رو انتخاب کنه (موردی که منطقیتر هست)
۴- اقدامات لازم؛ از مدل میخواید که با توجه له استراتژی و آنالیز مسئله قدم به قدم آنچه برای حل مسئله نیاز هست رو در بیاره و بنویسه.
۵- در نهایت پرامپت اصلی کاربر + اقدامات لازم برای حل مسئله رو بعنوان ورودی به مدل میدید و بهش میگید که برای حل مسئله این اقدامات رو دنبال کنه تا جواب نهایی رو بگیره.
مجموع این ۵ مورد کنار هم عملکرد مدلهای معمول موجود رو بسیار بسیار بهبود میده.
هزینه کمتری هم نسبت به
chatGpt-o1
داره