PyTorch Howsam
3.03K subscribers
341 photos
48 videos
5 files
477 links
از هوش مصنوعی میگیم...

ارتباط با ادمین
@howsam_support
加入频道
#مبتدی #nlp

یک پست وبلاگی خوب در حوزه متن

در این پست به کلاس‌بندی نظرات در یک خرید پرداخته میشه. در این پروژه از دیتاست زیر استفاده شده:
Women's E-commerce Clothing Reviews

در پروژه از LSTM استفاده شده و مرحله به مرحله هم کدها رو توضیح داده. از فریمورک پایتورچ هم استفاده شده.

لینک پست وبلاگی:
https://towardsdatascience.com/multiclass-text-classification-using-lstm-in-pytorch-eac56baed8df

یک توضیحی هم درباره دیتاست بدم. این دیتاست در کاگل منتشر شده و شامل نظرات 30 هزار خانم درباره لباس هست. هم کامنت و هم امتیازی که دادن... دیتاست بسیار خوبیه.

@pytorch_howsam
#پیشرفته #nlp

اگه دنبال مثال‌های متنوع با شبکه‌های مختلف در حوزه nlp هستید، لینک زیر رو از دست ندید:
https://github.com/graykode/nlp-tutorial

در این لینک، درباره شبکه‌ها و مثال‌های مختلف توضیح تئوری داده نشده. اما، همه کدها در گوگل کولب در دسترس هست و به‌راحتی می‌تونید ازشون استفاده کنید.

شما در این پیج گیتهاب، می‌تونید پروژه‌هایی از RNN، Attention، شبکه کانولوشنی و ترنسفورمرها رو پیدا کنید.

برای افرادی که تا حدی پایتورچ بلد هستند و می‌خوان در حوزه nlp بیشتر مسلط بشن، این پیج رو از دست ندن.

@pytorch_howsam
PyTorch Howsam
#پیشرفته #nlp اگه دنبال مثال‌های متنوع با شبکه‌های مختلف در حوزه nlp هستید، لینک زیر رو از دست ندید: https://github.com/graykode/nlp-tutorial در این لینک، درباره شبکه‌ها و مثال‌های مختلف توضیح تئوری داده نشده. اما، همه کدها در گوگل کولب در دسترس هست و به‌راحتی…
#bert #nlp

در پست بالا درمورد nlp و ترنسفورمر صحبت شد. ترنسفورمرها اولین بار در شبکه Bert از گوگل در سال 2018 مطرح شدند.

بعد از دستیابی به موفقیت‌های قابل توجه با برت، مدتی پیش گوگل، برت رو در موتور جستجوی خودش به‌کار گذاشت. قبل از Bert، الگوریتم RankBrain در موتور جستجوی گوگل بود. حالا متخصصین سئو تلاش می‌کنن بفهمن با برت چگونه باید محتوا سئو بشه و رمز و رازش چیه!

تصویر بالا مقایسه بین RankBrain و Bert هست...

@pytorch_howsam
#nlp #pytorch

A Deep Dive into NLP with PyTorch

یک آموزش عالی برای NLP در پایتورچ... در این آموزش، از مباحث مقدماتی (مانند معرفی پایتورچ، توکنایز کردن) تا مباحث پیشرفته (مانند شبکه‌های بازگشتی، اتنشن و ترنسفورمرها) مرور میشه.

لینک ویدئو

@pytorch_howsam
#nlp #gpt

شبکه GPT-3 از شرکت OpenAI با 175 میلیااارد پارامتر!!

خبری که امروز در اینترنت و شبکه‌های اجتماعی ترند شده...

بزرگترین شبکه‌ای که تا به امروز ساخته شده. عده‌ای هم نگاه انتقادی به این مساله داشتن...

گفته میشه شبکه در حالت فوروارد 700 گیگابایت رم GPU می‌خواد! چه خبره؟!

نشسته‌ام به GPT-3 نگاه می‌کنم، GPU آه می‌کشد...

@pytorch_howsam
#data_augmentation #nlp

دیتا آگمنت در nlp

کمتر در مورد دیتا آگمنت در nlp صحبت میشه. این یک لینک نمونه کد در گوگل کولب:
لینک

@pytorch_howsam
یک ریپوی فووووووق العاااااده برای NLP 🔥

از یه امبدینگ ساده شروع کرده، بعد رفته سراغ RNN، CNN و آخرشم به اتنشن و ترنسفورمر رسیده.

کدها بسیار منظم و تمیز نوشته شده. کدهاش هم کمه و شلوغش نکرده. اگه دنبال مینی پروژه تو NLP هستی، اینو از دست نده. بشین یکی یکی رو کد بزن و بررسی کن.

https://github.com/graykode/nlp-tutorial

راستی، دمتون گرم که تو پست بالایی مشارکت کردید. ایشالا این آموزش رو آماده میکنیم و رایگان میدیم به دوستان ❤️
#nlp
@pytorch_howsam