#مبتدی #nlp
یک پست وبلاگی خوب در حوزه متن
در این پست به کلاسبندی نظرات در یک خرید پرداخته میشه. در این پروژه از دیتاست زیر استفاده شده:
Women's E-commerce Clothing Reviews
در پروژه از LSTM استفاده شده و مرحله به مرحله هم کدها رو توضیح داده. از فریمورک پایتورچ هم استفاده شده.
لینک پست وبلاگی:
https://towardsdatascience.com/multiclass-text-classification-using-lstm-in-pytorch-eac56baed8df
یک توضیحی هم درباره دیتاست بدم. این دیتاست در کاگل منتشر شده و شامل نظرات 30 هزار خانم درباره لباس هست. هم کامنت و هم امتیازی که دادن... دیتاست بسیار خوبیه.
@pytorch_howsam
یک پست وبلاگی خوب در حوزه متن
در این پست به کلاسبندی نظرات در یک خرید پرداخته میشه. در این پروژه از دیتاست زیر استفاده شده:
Women's E-commerce Clothing Reviews
در پروژه از LSTM استفاده شده و مرحله به مرحله هم کدها رو توضیح داده. از فریمورک پایتورچ هم استفاده شده.
لینک پست وبلاگی:
https://towardsdatascience.com/multiclass-text-classification-using-lstm-in-pytorch-eac56baed8df
یک توضیحی هم درباره دیتاست بدم. این دیتاست در کاگل منتشر شده و شامل نظرات 30 هزار خانم درباره لباس هست. هم کامنت و هم امتیازی که دادن... دیتاست بسیار خوبیه.
@pytorch_howsam
#پیشرفته #nlp
اگه دنبال مثالهای متنوع با شبکههای مختلف در حوزه nlp هستید، لینک زیر رو از دست ندید:
https://github.com/graykode/nlp-tutorial
در این لینک، درباره شبکهها و مثالهای مختلف توضیح تئوری داده نشده. اما، همه کدها در گوگل کولب در دسترس هست و بهراحتی میتونید ازشون استفاده کنید.
شما در این پیج گیتهاب، میتونید پروژههایی از RNN، Attention، شبکه کانولوشنی و ترنسفورمرها رو پیدا کنید.
برای افرادی که تا حدی پایتورچ بلد هستند و میخوان در حوزه nlp بیشتر مسلط بشن، این پیج رو از دست ندن.
@pytorch_howsam
اگه دنبال مثالهای متنوع با شبکههای مختلف در حوزه nlp هستید، لینک زیر رو از دست ندید:
https://github.com/graykode/nlp-tutorial
در این لینک، درباره شبکهها و مثالهای مختلف توضیح تئوری داده نشده. اما، همه کدها در گوگل کولب در دسترس هست و بهراحتی میتونید ازشون استفاده کنید.
شما در این پیج گیتهاب، میتونید پروژههایی از RNN، Attention، شبکه کانولوشنی و ترنسفورمرها رو پیدا کنید.
برای افرادی که تا حدی پایتورچ بلد هستند و میخوان در حوزه nlp بیشتر مسلط بشن، این پیج رو از دست ندن.
@pytorch_howsam
PyTorch Howsam
#پیشرفته #nlp اگه دنبال مثالهای متنوع با شبکههای مختلف در حوزه nlp هستید، لینک زیر رو از دست ندید: https://github.com/graykode/nlp-tutorial در این لینک، درباره شبکهها و مثالهای مختلف توضیح تئوری داده نشده. اما، همه کدها در گوگل کولب در دسترس هست و بهراحتی…
#bert #nlp
در پست بالا درمورد nlp و ترنسفورمر صحبت شد. ترنسفورمرها اولین بار در شبکه Bert از گوگل در سال 2018 مطرح شدند.
بعد از دستیابی به موفقیتهای قابل توجه با برت، مدتی پیش گوگل، برت رو در موتور جستجوی خودش بهکار گذاشت. قبل از Bert، الگوریتم RankBrain در موتور جستجوی گوگل بود. حالا متخصصین سئو تلاش میکنن بفهمن با برت چگونه باید محتوا سئو بشه و رمز و رازش چیه!
تصویر بالا مقایسه بین RankBrain و Bert هست...
@pytorch_howsam
در پست بالا درمورد nlp و ترنسفورمر صحبت شد. ترنسفورمرها اولین بار در شبکه Bert از گوگل در سال 2018 مطرح شدند.
بعد از دستیابی به موفقیتهای قابل توجه با برت، مدتی پیش گوگل، برت رو در موتور جستجوی خودش بهکار گذاشت. قبل از Bert، الگوریتم RankBrain در موتور جستجوی گوگل بود. حالا متخصصین سئو تلاش میکنن بفهمن با برت چگونه باید محتوا سئو بشه و رمز و رازش چیه!
تصویر بالا مقایسه بین RankBrain و Bert هست...
@pytorch_howsam
#nlp #pytorch
A Deep Dive into NLP with PyTorch
یک آموزش عالی برای NLP در پایتورچ... در این آموزش، از مباحث مقدماتی (مانند معرفی پایتورچ، توکنایز کردن) تا مباحث پیشرفته (مانند شبکههای بازگشتی، اتنشن و ترنسفورمرها) مرور میشه.
لینک ویدئو
@pytorch_howsam
A Deep Dive into NLP with PyTorch
یک آموزش عالی برای NLP در پایتورچ... در این آموزش، از مباحث مقدماتی (مانند معرفی پایتورچ، توکنایز کردن) تا مباحث پیشرفته (مانند شبکههای بازگشتی، اتنشن و ترنسفورمرها) مرور میشه.
لینک ویدئو
@pytorch_howsam
#nlp #gpt
شبکه GPT-3 از شرکت OpenAI با 175 میلیااارد پارامتر!!
خبری که امروز در اینترنت و شبکههای اجتماعی ترند شده...
بزرگترین شبکهای که تا به امروز ساخته شده. عدهای هم نگاه انتقادی به این مساله داشتن...
گفته میشه شبکه در حالت فوروارد 700 گیگابایت رم GPU میخواد! چه خبره؟!
نشستهام به GPT-3 نگاه میکنم، GPU آه میکشد...
@pytorch_howsam
شبکه GPT-3 از شرکت OpenAI با 175 میلیااارد پارامتر!!
خبری که امروز در اینترنت و شبکههای اجتماعی ترند شده...
بزرگترین شبکهای که تا به امروز ساخته شده. عدهای هم نگاه انتقادی به این مساله داشتن...
گفته میشه شبکه در حالت فوروارد 700 گیگابایت رم GPU میخواد! چه خبره؟!
نشستهام به GPT-3 نگاه میکنم، GPU آه میکشد...
@pytorch_howsam
#data_augmentation #nlp
دیتا آگمنت در nlp
کمتر در مورد دیتا آگمنت در nlp صحبت میشه. این یک لینک نمونه کد در گوگل کولب:
لینک
@pytorch_howsam
دیتا آگمنت در nlp
کمتر در مورد دیتا آگمنت در nlp صحبت میشه. این یک لینک نمونه کد در گوگل کولب:
لینک
@pytorch_howsam
Google
NER_data_augmentation.ipynb
Colaboratory notebook
یک ریپوی فووووووق العاااااده برای NLP 🔥
از یه امبدینگ ساده شروع کرده، بعد رفته سراغ RNN، CNN و آخرشم به اتنشن و ترنسفورمر رسیده.
کدها بسیار منظم و تمیز نوشته شده. کدهاش هم کمه و شلوغش نکرده. اگه دنبال مینی پروژه تو NLP هستی، اینو از دست نده. بشین یکی یکی رو کد بزن و بررسی کن.
https://github.com/graykode/nlp-tutorial
راستی، دمتون گرم که تو پست بالایی مشارکت کردید. ایشالا این آموزش رو آماده میکنیم و رایگان میدیم به دوستان ❤️
#nlp
@pytorch_howsam
از یه امبدینگ ساده شروع کرده، بعد رفته سراغ RNN، CNN و آخرشم به اتنشن و ترنسفورمر رسیده.
کدها بسیار منظم و تمیز نوشته شده. کدهاش هم کمه و شلوغش نکرده. اگه دنبال مینی پروژه تو NLP هستی، اینو از دست نده. بشین یکی یکی رو کد بزن و بررسی کن.
https://github.com/graykode/nlp-tutorial
راستی، دمتون گرم که تو پست بالایی مشارکت کردید. ایشالا این آموزش رو آماده میکنیم و رایگان میدیم به دوستان ❤️
#nlp
@pytorch_howsam