گراف مقالات مرتبط با یک مقاله
دارید روی یک موضوعی پژوهش میکنید و خیلی بیهدف و شاید نومیدانه دنبال مقالات مرتبط و پیشینش جستجو میکنید؟ پس این ابزار رو امتحان کنید شاید مفید واقع شد، کافیه یک مقاله هدف رو بهش بدید تا براتون یک گراف خوشگل از کارهای مرتبطش رسم کنه.
هر گره این گراف یک مقاله است که به اون مقاله مورد جستجو شما مرتبطه. رنگ و سایز هر گره هم سال انتشار و تعداد ارجاعات شده به اون مقاله رو نشون میدن. مقالهها هم بر اساس این که چه قدر با هم ارجاعات مشترک دارن به هم دیگه وصل شدهاند.
https://www.connectedpapers.com/
#tool
@nlp_stuff
دارید روی یک موضوعی پژوهش میکنید و خیلی بیهدف و شاید نومیدانه دنبال مقالات مرتبط و پیشینش جستجو میکنید؟ پس این ابزار رو امتحان کنید شاید مفید واقع شد، کافیه یک مقاله هدف رو بهش بدید تا براتون یک گراف خوشگل از کارهای مرتبطش رسم کنه.
هر گره این گراف یک مقاله است که به اون مقاله مورد جستجو شما مرتبطه. رنگ و سایز هر گره هم سال انتشار و تعداد ارجاعات شده به اون مقاله رو نشون میدن. مقالهها هم بر اساس این که چه قدر با هم ارجاعات مشترک دارن به هم دیگه وصل شدهاند.
https://www.connectedpapers.com/
#tool
@nlp_stuff
کتابخانه wordfreq
امشب میخوایم یک کتابخونه کوچیک رو بهتون معرفی کنیم. در خیلی از کاربردها و مسائل واقعی به علت پیچیدگی و هزینههای بالای شبکههای دیپ و یادگیری انتها به انتها امکان استفاده ازشون نیست؛ در نتیجه مجبوریم که به سمت روشهای سنتی و در نتیجه استخراج ویژگی از متن و کلمه پیش بریم. یکی از ویژگیهای مهم هر کلمه میتونه فراوانی استفاده ازش در پیکرههای (corpus) مختلف باشه که این معیار میتونه نشون بده که این کلمه چه قدر رایجه، چه قدر ایستواژهست (stopword) یا چه قدر خاصه. در صورتی که خودتون بخواید برای هر کلمه بیاید این عدد رو حساب کنید نیازمند این هستید که یک پیکره بزرگ پیدا کنید و فراوانی هر کلمه از اون رو محاسبه کنید که خب فرآیند وقتگیر و رمگیری میتونه باشه.
کتابخونهی wordfreq برای ۳۶ زبان مختلف (از جمله زبان فارسی) فراوانی نسبی کلمات رو روی پیکرههای متنی بزرگ هر زبان (مثلا برای فارسی روی Wikipedia و Subtitles و OSCAR و Twitter) حساب کرده و به راحتی آب خوردن و به سرعت اراده کردن، برای هر کلمهای که بخواید این مقدار رو بهتون برمیگردونه.
لینک کتابخونه:
https://github.com/LuminosoInsight/wordfreq/
#tool
@nlp_stuff
امشب میخوایم یک کتابخونه کوچیک رو بهتون معرفی کنیم. در خیلی از کاربردها و مسائل واقعی به علت پیچیدگی و هزینههای بالای شبکههای دیپ و یادگیری انتها به انتها امکان استفاده ازشون نیست؛ در نتیجه مجبوریم که به سمت روشهای سنتی و در نتیجه استخراج ویژگی از متن و کلمه پیش بریم. یکی از ویژگیهای مهم هر کلمه میتونه فراوانی استفاده ازش در پیکرههای (corpus) مختلف باشه که این معیار میتونه نشون بده که این کلمه چه قدر رایجه، چه قدر ایستواژهست (stopword) یا چه قدر خاصه. در صورتی که خودتون بخواید برای هر کلمه بیاید این عدد رو حساب کنید نیازمند این هستید که یک پیکره بزرگ پیدا کنید و فراوانی هر کلمه از اون رو محاسبه کنید که خب فرآیند وقتگیر و رمگیری میتونه باشه.
کتابخونهی wordfreq برای ۳۶ زبان مختلف (از جمله زبان فارسی) فراوانی نسبی کلمات رو روی پیکرههای متنی بزرگ هر زبان (مثلا برای فارسی روی Wikipedia و Subtitles و OSCAR و Twitter) حساب کرده و به راحتی آب خوردن و به سرعت اراده کردن، برای هر کلمهای که بخواید این مقدار رو بهتون برمیگردونه.
لینک کتابخونه:
https://github.com/LuminosoInsight/wordfreq/
#tool
@nlp_stuff
GitHub
GitHub - rspeer/wordfreq: Access a database of word frequencies, in various natural languages.
Access a database of word frequencies, in various natural languages. - rspeer/wordfreq
معرفی کتابخانهی Accelerate
چند وقت پیش هاگینگ فیس کتابخونهی Accelerate را بیرون داد.
با این زبونبسته شما میتونید راحت روی TPU (شما هم اگر مثل ما توی خونتون TPU ندارید، از مال کولب میتونید استفاده کنید) مدل ترین کنید.
این شکلی هم هست که شما یه تابع ترین با پایتورچ تعریف میکنید و به این کتابخونه میدید.
یه نوتبوک هم برای مثال درست کردند که برت رو روی دیتاست glue mrpc (هر سطر از این دیتاست یه جفت جملهست و لیبلش اینه که از نظر معنایی با هم یکسان هستند یا خیر؟) ترین میکنه.
لینک کتابخانه:
https://github.com/huggingface/accelerate
لینک نوتبوک مثال:
https://colab.research.google.com/github/huggingface/notebooks/blob/master/examples/accelerate/simple_nlp_example.ipynb
#tool
@nlp_stuff
چند وقت پیش هاگینگ فیس کتابخونهی Accelerate را بیرون داد.
با این زبونبسته شما میتونید راحت روی TPU (شما هم اگر مثل ما توی خونتون TPU ندارید، از مال کولب میتونید استفاده کنید) مدل ترین کنید.
این شکلی هم هست که شما یه تابع ترین با پایتورچ تعریف میکنید و به این کتابخونه میدید.
یه نوتبوک هم برای مثال درست کردند که برت رو روی دیتاست glue mrpc (هر سطر از این دیتاست یه جفت جملهست و لیبلش اینه که از نظر معنایی با هم یکسان هستند یا خیر؟) ترین میکنه.
لینک کتابخانه:
https://github.com/huggingface/accelerate
لینک نوتبوک مثال:
https://colab.research.google.com/github/huggingface/notebooks/blob/master/examples/accelerate/simple_nlp_example.ipynb
#tool
@nlp_stuff
TensorFlow Decision Forests (TF-DF)
یکی از مدلهای معروف و کارا در یادگیری ماشین «جنگل تصمیمگیری» است. همونطور که میدونید، این مدلها تفسیرپذیری بالایی دارند و میتونند روی دیتای عددی وcategorical بدون پیشپردازش کار کنند.
تنسرفلو حالا جنگل تصمیمگیری رو به کتابخونهی خودش اضافه کرده تا بتونید این مدل را راحت آموزش بدید، سرو کنید و تفسیر کنید؛ البته این مدل در کتابخونههای دیگه مثل sklearn وجود داشتند اما حالا با استفاده از TF-DF میتوان از ابزارهای دیگهی تنسرفلو مثل TF-serving و TFX به صورت یکپارچه و راحتتر استفاده کرد و لذت برد. همچنین تنسرفلو کلی از انواع این مدل رو مثل random forests, gradient-boosted trees, CART, (Lambda)MART, DART, Extra Trees, greedy global growth, oblique trees, one-side-sampling, … اضافه کرده.
نمونهی کد و تفسیر مدل رو در دو عکس بالا آوردیم.
لینک پست توضیح TF-DF:
https://blog.tensorflow.org/2021/05/introducing-tensorflow-decision-forests.html?m=1
#read
#blog
#tool
@nlp_stuff
یکی از مدلهای معروف و کارا در یادگیری ماشین «جنگل تصمیمگیری» است. همونطور که میدونید، این مدلها تفسیرپذیری بالایی دارند و میتونند روی دیتای عددی وcategorical بدون پیشپردازش کار کنند.
تنسرفلو حالا جنگل تصمیمگیری رو به کتابخونهی خودش اضافه کرده تا بتونید این مدل را راحت آموزش بدید، سرو کنید و تفسیر کنید؛ البته این مدل در کتابخونههای دیگه مثل sklearn وجود داشتند اما حالا با استفاده از TF-DF میتوان از ابزارهای دیگهی تنسرفلو مثل TF-serving و TFX به صورت یکپارچه و راحتتر استفاده کرد و لذت برد. همچنین تنسرفلو کلی از انواع این مدل رو مثل random forests, gradient-boosted trees, CART, (Lambda)MART, DART, Extra Trees, greedy global growth, oblique trees, one-side-sampling, … اضافه کرده.
نمونهی کد و تفسیر مدل رو در دو عکس بالا آوردیم.
لینک پست توضیح TF-DF:
https://blog.tensorflow.org/2021/05/introducing-tensorflow-decision-forests.html?m=1
#read
#blog
#tool
@nlp_stuff
پردازش صوت با speechbrain
اگه دنبال یه ابزاری میگردید که بتونید باهاش راحت کارهای پردازش صوتی بکنید، باید برید سراغ speechbrain. این ابزار کارهای بازشناسی گفتار، بازشناسی گوینده، بهبود صوت، پردازشهای میانی مانند استخراج فیچر و پردازش همزمان چندین میکروفون رو انجا میده. نکته اینه که مدلهایی که استفاده شده کاملا بهروز و در برخی کاربردها حتی state of the art هستند و در برخی دیگه هم عملکرد کاملا رقابتی دارند. از ویژگیهای مهم دیگه این ابزار اینه که مدلهای استفاده شده در این ابزار بر روی هاگینگفیس موجودند. شاید تنها ضعف این ابزار اینه که مدلها کاملا پایتورچی هستند و خبری از تنسورفلو نیست اما با توجه به سادگی کاربرد و همچنین وجود مدلها بر روی هاگینگفیس نباید اصلا نگران استفاده ازش باشید. از دیگر ویژگیهای مثبتش هم اینه که کاملا با GPU دوسته و اگه لازم دارید تا اون رو بر روی دیتاست خودتون آموزش بدید و از GPU استفاده کنید، قطعا مشکلی نخواهید داشت. پیشنهاد میکنیم بر و بچههای صوتی حتما یه نگاهی به این ابزار بهروز بندازند.
لینک گیتهاب:
https://github.com/speechbrain/speechbrain
لینک صفحه رسمی در هاگینگفیس :
https://huggingface.co/speechbrain
#tool
@nlp_stuff
اگه دنبال یه ابزاری میگردید که بتونید باهاش راحت کارهای پردازش صوتی بکنید، باید برید سراغ speechbrain. این ابزار کارهای بازشناسی گفتار، بازشناسی گوینده، بهبود صوت، پردازشهای میانی مانند استخراج فیچر و پردازش همزمان چندین میکروفون رو انجا میده. نکته اینه که مدلهایی که استفاده شده کاملا بهروز و در برخی کاربردها حتی state of the art هستند و در برخی دیگه هم عملکرد کاملا رقابتی دارند. از ویژگیهای مهم دیگه این ابزار اینه که مدلهای استفاده شده در این ابزار بر روی هاگینگفیس موجودند. شاید تنها ضعف این ابزار اینه که مدلها کاملا پایتورچی هستند و خبری از تنسورفلو نیست اما با توجه به سادگی کاربرد و همچنین وجود مدلها بر روی هاگینگفیس نباید اصلا نگران استفاده ازش باشید. از دیگر ویژگیهای مثبتش هم اینه که کاملا با GPU دوسته و اگه لازم دارید تا اون رو بر روی دیتاست خودتون آموزش بدید و از GPU استفاده کنید، قطعا مشکلی نخواهید داشت. پیشنهاد میکنیم بر و بچههای صوتی حتما یه نگاهی به این ابزار بهروز بندازند.
لینک گیتهاب:
https://github.com/speechbrain/speechbrain
لینک صفحه رسمی در هاگینگفیس :
https://huggingface.co/speechbrain
#tool
@nlp_stuff
GitHub
GitHub - speechbrain/speechbrain: A PyTorch-based Speech Toolkit
A PyTorch-based Speech Toolkit. Contribute to speechbrain/speechbrain development by creating an account on GitHub.
کتابخانهی AugLy فیسبوک!
تا حالا خیلی راجع به augmentation، اهمیتش و انواعش پست گذاشتیم؛ مثل این پست و این پست و این پست (اگر لینکاشونو نمیبینید، یعنی تلگرامتون آپدیت نیست یا در نسخه وب دیده نمیشه!)؛ حالا در همین راستا فیسبوک کتابخانهی AugLy رو اوپنسورس کرده.
این کتابخونه از چهار تا زیرکتابخونه برای چهار مودالیتی (متن، صوت، تصویر و فیلم) ساخته شده و همهشون هم interfaceهای مشابهی دارند. فیسبوک کتابخونههای مختلف قبلی رو توی این کتابخونه جمع کرده و یه سری چیزای جدید هم خودش نوشته. توابع جالبی غیر از توابع معمول (کراپ، چرخش و ...) واسه عکس داره؛ مثلا یه عکس رو میگیره و میذاره توی قالب اینستاگرام و بقیهی شبکههای اجتماعی که انگار یه نفر اسکرینشات گرفته و به اشتراک گذاشته و خب این خیلی بهدردبخوره چون ملت اکثرا اینجوری پستهای اینستاگرام و توییتر رو به هم میفرستند. یا روی متن کلی تغییرات متنوع داره که توی تصاویر ضمیمه شده هم مشاهده میکنید. کلا هم این داستان augmentation چه واسه اینکه مدل نسبت به ورودیهای مختلف robust باشه چه از نظر بیزینسی خیلی خوبه؛ مثلا اگر یه کاربر یه ذره یه عکس یا ویدیو یا موسیقی رو تغییر بده و بخواد به اسم خودش آپلود کنه، مشخص میشه. از این کتابخونه در چالش تشخیص دیپ فیک هم استفاده شد که بفهمند مدل کی robustتره.
هنوز داکیومنتیشن کتابخونه کامل نیست و یه سری مثال اولیه برای هر کدوم از مودالیتیها آورده؛ اما توصیه میکنیم جزء پیشروهایی باشید که سراغش میره.
لینک گیت:
https://github.com/facebookresearch/AugLy
لینک بلاگ توضیح کتابخونه:
https://ai.facebook.com/blog/augly-a-new-data-augmentation-library-to-help-build-more-robust-ai-models/
پ.ن.۱. سه تا تصویر ضمیمه شده. ورق بزنید.
پ.ن.۲. لطفا کانال را به بقیه هم معرفی کنید.
#tool
@nlp_stuff
تا حالا خیلی راجع به augmentation، اهمیتش و انواعش پست گذاشتیم؛ مثل این پست و این پست و این پست (اگر لینکاشونو نمیبینید، یعنی تلگرامتون آپدیت نیست یا در نسخه وب دیده نمیشه!)؛ حالا در همین راستا فیسبوک کتابخانهی AugLy رو اوپنسورس کرده.
این کتابخونه از چهار تا زیرکتابخونه برای چهار مودالیتی (متن، صوت، تصویر و فیلم) ساخته شده و همهشون هم interfaceهای مشابهی دارند. فیسبوک کتابخونههای مختلف قبلی رو توی این کتابخونه جمع کرده و یه سری چیزای جدید هم خودش نوشته. توابع جالبی غیر از توابع معمول (کراپ، چرخش و ...) واسه عکس داره؛ مثلا یه عکس رو میگیره و میذاره توی قالب اینستاگرام و بقیهی شبکههای اجتماعی که انگار یه نفر اسکرینشات گرفته و به اشتراک گذاشته و خب این خیلی بهدردبخوره چون ملت اکثرا اینجوری پستهای اینستاگرام و توییتر رو به هم میفرستند. یا روی متن کلی تغییرات متنوع داره که توی تصاویر ضمیمه شده هم مشاهده میکنید. کلا هم این داستان augmentation چه واسه اینکه مدل نسبت به ورودیهای مختلف robust باشه چه از نظر بیزینسی خیلی خوبه؛ مثلا اگر یه کاربر یه ذره یه عکس یا ویدیو یا موسیقی رو تغییر بده و بخواد به اسم خودش آپلود کنه، مشخص میشه. از این کتابخونه در چالش تشخیص دیپ فیک هم استفاده شد که بفهمند مدل کی robustتره.
هنوز داکیومنتیشن کتابخونه کامل نیست و یه سری مثال اولیه برای هر کدوم از مودالیتیها آورده؛ اما توصیه میکنیم جزء پیشروهایی باشید که سراغش میره.
لینک گیت:
https://github.com/facebookresearch/AugLy
لینک بلاگ توضیح کتابخونه:
https://ai.facebook.com/blog/augly-a-new-data-augmentation-library-to-help-build-more-robust-ai-models/
پ.ن.۱. سه تا تصویر ضمیمه شده. ورق بزنید.
پ.ن.۲. لطفا کانال را به بقیه هم معرفی کنید.
#tool
@nlp_stuff
Telegram
stuff
مدل codex در برابر کدزنها!
حدود ده روز پیش بود که ابزار github copilot (اگر ندیدید این جا رو ببینید: https://copilot.github.com) رونمایی شد و موجب گریبان دریدن تعداد زیادی از افراد و به خصوص قشر برنامهنویس شد. همان موقع این سوال ایجاد شد که قضیه فنی پشت copilot چیه و چه قدر قدرت و توانایی داره. حالا یک جمعی از دوستان در open-ai اومدند و مقالهای دادند تا به مانند همیشه حرص و حسادت ما رو برانگیزند. در این مقاله صحبت از مدل زبانی به نام codex کردند و بیان کردند که ابزار copilot نیز بر پایه همین مدل زبانی بنا شده و از اون قدرت میگیره. لازم به ذکر است که در این مقاله صرفا به بررسی کیس آموزش codex روی پایتون پرداختند و در مورد عملکرد بقیه مدلها سخنی به میان نیامده. به طور اجمالی، codex یک مدل زبانی بر پایه معماری GPT با سایز ۱۲ میلیارد پارامتره که بر روی یک دیتاست حامل داک استرینگها و پیادهسازی توابع در زبان پایتون آموزش دیده تا تسکی به نام تولید فانکشن رو یاد بگیره؛ یعنی با گرفتن داک استرینگها بتونه متن تابع رو پیاده کنه (برای این که یک مقیاسی دستتون بیاد روی دیتاستی با حجم ۱۵۹ گیگ با این اوصاف ذکر شده آموزش دیده)
اما در موقع ارزیابی از اونجایی که open-ai منابع و پول زیاد داره و حیفه که ازشون استفاده نکنه، اومده روی کدهای خروجی unit test انجام داده تا بتونند بفهمند قدرت codex در چه حده و چند درصد برنامههایی که مینویسه صحیح و درست عمل میکنند. گل مطلب اینه که در موقعی که یک سمپل از مدل codex گرفته بشه این مدل ۳۷.۷ درصد از توابع رو درست پیاده سازی میکرده (عدد حیرت انگیزیه) و هنگامی که به جای یک سمپل صد سمپل از codex بگیریم، این مدل ۷۷.۵ درصد از توابع رو میتونسته درست پیاده کنه (به طور خیلی ساده شده بخوایم بگیم در ۷۷.۵ درصد مواقع یکی از سمپلها بوده که جواب درست بوده!)
در ادامه این مقاله هم از اونجا که همچنین کلی دلار باقی مونده بوده کلی اکسپریمنت و یونیت تست انجام دادند تا رفتار codex رو بررسی کنند. در آخر هم بخشی رو به خواباندن هایپ جوگیرها تخصیص دادند و از معایب و موانع و خطرات استفاده از codex در صنعت و حل مسائل دنیای واقعی صحبت کردند و کلا هنوز کلی راه تا رویای پیادهسازی اتومات برنامهها و اخراج برنامهنویسها مونده ولی نشدنی نیست...
لینک مقاله:
https://arxiv.org/abs/2107.03374
#paper
#read
#tool
@nlp_stuff
حدود ده روز پیش بود که ابزار github copilot (اگر ندیدید این جا رو ببینید: https://copilot.github.com) رونمایی شد و موجب گریبان دریدن تعداد زیادی از افراد و به خصوص قشر برنامهنویس شد. همان موقع این سوال ایجاد شد که قضیه فنی پشت copilot چیه و چه قدر قدرت و توانایی داره. حالا یک جمعی از دوستان در open-ai اومدند و مقالهای دادند تا به مانند همیشه حرص و حسادت ما رو برانگیزند. در این مقاله صحبت از مدل زبانی به نام codex کردند و بیان کردند که ابزار copilot نیز بر پایه همین مدل زبانی بنا شده و از اون قدرت میگیره. لازم به ذکر است که در این مقاله صرفا به بررسی کیس آموزش codex روی پایتون پرداختند و در مورد عملکرد بقیه مدلها سخنی به میان نیامده. به طور اجمالی، codex یک مدل زبانی بر پایه معماری GPT با سایز ۱۲ میلیارد پارامتره که بر روی یک دیتاست حامل داک استرینگها و پیادهسازی توابع در زبان پایتون آموزش دیده تا تسکی به نام تولید فانکشن رو یاد بگیره؛ یعنی با گرفتن داک استرینگها بتونه متن تابع رو پیاده کنه (برای این که یک مقیاسی دستتون بیاد روی دیتاستی با حجم ۱۵۹ گیگ با این اوصاف ذکر شده آموزش دیده)
اما در موقع ارزیابی از اونجایی که open-ai منابع و پول زیاد داره و حیفه که ازشون استفاده نکنه، اومده روی کدهای خروجی unit test انجام داده تا بتونند بفهمند قدرت codex در چه حده و چند درصد برنامههایی که مینویسه صحیح و درست عمل میکنند. گل مطلب اینه که در موقعی که یک سمپل از مدل codex گرفته بشه این مدل ۳۷.۷ درصد از توابع رو درست پیاده سازی میکرده (عدد حیرت انگیزیه) و هنگامی که به جای یک سمپل صد سمپل از codex بگیریم، این مدل ۷۷.۵ درصد از توابع رو میتونسته درست پیاده کنه (به طور خیلی ساده شده بخوایم بگیم در ۷۷.۵ درصد مواقع یکی از سمپلها بوده که جواب درست بوده!)
در ادامه این مقاله هم از اونجا که همچنین کلی دلار باقی مونده بوده کلی اکسپریمنت و یونیت تست انجام دادند تا رفتار codex رو بررسی کنند. در آخر هم بخشی رو به خواباندن هایپ جوگیرها تخصیص دادند و از معایب و موانع و خطرات استفاده از codex در صنعت و حل مسائل دنیای واقعی صحبت کردند و کلا هنوز کلی راه تا رویای پیادهسازی اتومات برنامهها و اخراج برنامهنویسها مونده ولی نشدنی نیست...
لینک مقاله:
https://arxiv.org/abs/2107.03374
#paper
#read
#tool
@nlp_stuff
Telegram
stuff
مستندسازی کیفیت عملکرد مدلهای زبانی فارسی
بسیاری از مواقع مقاله یا مدلی رو دیدید که نویسنده ادعا کرده با مدل ابداعی خودش به فلان دقت روی یک وظیفه زبان فارسی رسیده، اما در عین حال کد و مستندی رو برای این ادعاش منتشر نکرده. بچههای تیم هوش مصنوعی شرکت مفید کدهای تمیزی زدند که ملت بتونند راحت مدلهای مختلف ارائه شده برای وظایف زبان فارسی رو روی دیتاستهای مختلف تست بگیرند و ارزیابی کنند. نکته مهمتر اینه که کدهاشون رو روی گیت سخاوتمدانه به اشتراک گذاشتند؛ پس بهشون استار بدید که انرژی بگیرند و بقیهی کدهاشونم بگذارند. :)
لینک ریپو:
https://github.com/Mofid-AI/persian-nlp-benchmark
#tool
#irani
@nlp_stuff
بسیاری از مواقع مقاله یا مدلی رو دیدید که نویسنده ادعا کرده با مدل ابداعی خودش به فلان دقت روی یک وظیفه زبان فارسی رسیده، اما در عین حال کد و مستندی رو برای این ادعاش منتشر نکرده. بچههای تیم هوش مصنوعی شرکت مفید کدهای تمیزی زدند که ملت بتونند راحت مدلهای مختلف ارائه شده برای وظایف زبان فارسی رو روی دیتاستهای مختلف تست بگیرند و ارزیابی کنند. نکته مهمتر اینه که کدهاشون رو روی گیت سخاوتمدانه به اشتراک گذاشتند؛ پس بهشون استار بدید که انرژی بگیرند و بقیهی کدهاشونم بگذارند. :)
لینک ریپو:
https://github.com/Mofid-AI/persian-nlp-benchmark
#tool
#irani
@nlp_stuff
GitHub
GitHub - Mofid-AI/persian-nlp-benchmark: A benchmark for evaluation and comparison of various NLP tasks in Persian language.
A benchmark for evaluation and comparison of various NLP tasks in Persian language. - Mofid-AI/persian-nlp-benchmark
مدلهای دستهبندی صوتی در هاگینگفیس
قبلا در دو پست این [https://yangx.top/nlp_stuff/152] و این [https://yangx.top/nlp_stuff/184] راجع به مدل wave2vec و ابزار speechbrain صحبت کرده بودیم.
حالا کمکم زمان برداشت فرا رسیده و ملت مدلهای کاربردی روی این مدلها و ابزارهای پایه دارند تولید میکنند و روی هاگینگفیس هم میگذارند.
به تسکهایی مثل تشخیص زبان، استخراج کلمات کلیدی، تشخیص احساسات، تشخیص گوینده و … از روی صدای ورودی، دستهبندی صوتی گفته میشه.
لینک کل مدلهای دستهبندی صوتی موجود روی هاگینگ فیس:
https://huggingface.co/models?pipeline_tag=audio-classification
لینک مدل تشخیص زبان (فارسی هم داره) با Speechbrain:
https://huggingface.co/speechbrain/lang-id-commonlanguage_ecapa
#tool
#link
@nlp_stuff
قبلا در دو پست این [https://yangx.top/nlp_stuff/152] و این [https://yangx.top/nlp_stuff/184] راجع به مدل wave2vec و ابزار speechbrain صحبت کرده بودیم.
حالا کمکم زمان برداشت فرا رسیده و ملت مدلهای کاربردی روی این مدلها و ابزارهای پایه دارند تولید میکنند و روی هاگینگفیس هم میگذارند.
به تسکهایی مثل تشخیص زبان، استخراج کلمات کلیدی، تشخیص احساسات، تشخیص گوینده و … از روی صدای ورودی، دستهبندی صوتی گفته میشه.
لینک کل مدلهای دستهبندی صوتی موجود روی هاگینگ فیس:
https://huggingface.co/models?pipeline_tag=audio-classification
لینک مدل تشخیص زبان (فارسی هم داره) با Speechbrain:
https://huggingface.co/speechbrain/lang-id-commonlanguage_ecapa
#tool
#link
@nlp_stuff
This media is not supported in your browser
VIEW IN TELEGRAM
مدلهای document parsing در هاگینگفیس
دو مدل LayoutLMv2 و LayoutXLM از مایکروسافت برای پارس کردن تصاویر متنی به هاگینگ فیس اضافه شده و دمویی هم در لینک زیر براشون قرار داده شده که میتونید امتحان کنید. به این مدلها مولتیمودال بین متن و لایوت و تصویر گفته میشه. این مدلها کلمههای داخل عکس را یکی از تگهای مثل QUESTION/ANSWER/HEADER/OTHER میزنند و یعنی دارند کل جدول رو براتون پارس میکنند که باعث میشه خیلی راحتتر بتونید با مقادیر جدول کار کنید.
مدل LayoutXLM روی ۵۳ تا زبون (از جمله فارسی) پیشآموزش داده شده.
- دموی مدل LayoutLMv2:
https://huggingface.co/spaces/nielsr/LayoutLMv2-FUNSD
- لینکهای مقاله و هاگینگفیس مدل LayoutXLM:
https://huggingface.co/microsoft/layoutxlm-base
https://arxiv.org/abs/2104.08836
- لینکهای مقاله و هاگینگفیس مدل LayoutLMv2:
https://huggingface.co/microsoft/layoutlmv2-base-uncased
https://arxiv.org/abs/2012.14740
#tool
#link
@nlp_stuff
دو مدل LayoutLMv2 و LayoutXLM از مایکروسافت برای پارس کردن تصاویر متنی به هاگینگ فیس اضافه شده و دمویی هم در لینک زیر براشون قرار داده شده که میتونید امتحان کنید. به این مدلها مولتیمودال بین متن و لایوت و تصویر گفته میشه. این مدلها کلمههای داخل عکس را یکی از تگهای مثل QUESTION/ANSWER/HEADER/OTHER میزنند و یعنی دارند کل جدول رو براتون پارس میکنند که باعث میشه خیلی راحتتر بتونید با مقادیر جدول کار کنید.
مدل LayoutXLM روی ۵۳ تا زبون (از جمله فارسی) پیشآموزش داده شده.
- دموی مدل LayoutLMv2:
https://huggingface.co/spaces/nielsr/LayoutLMv2-FUNSD
- لینکهای مقاله و هاگینگفیس مدل LayoutXLM:
https://huggingface.co/microsoft/layoutxlm-base
https://arxiv.org/abs/2104.08836
- لینکهای مقاله و هاگینگفیس مدل LayoutLMv2:
https://huggingface.co/microsoft/layoutlmv2-base-uncased
https://arxiv.org/abs/2012.14740
#tool
#link
@nlp_stuff
جعبهابزار یادگیری ماشین!
هر فردی که در حوزه یادگیری ماشین و مشتقاتش داره فعالیت میکنه حتما لازمه که برای خودش یه جعبهابزار داشته باشه. برادر آمیت این جعبه ابزار رو آماده کرده و کل ابزارها رو به ۵ دسته آمادهسازی داده، اکتشاف داده، مدلسازی، ولیدیشن و پروداکشن از استکها و تسکهای مختلف تقسیم کرده.
این پست رو حتما یه گوشهای ذخیره کنید که هر وقت به دوشواری خوردید، یه سری بهش بزنید.
لینک جعبهابزار:
https://amitness.com/toolbox
#tool
@nlp_stuff
هر فردی که در حوزه یادگیری ماشین و مشتقاتش داره فعالیت میکنه حتما لازمه که برای خودش یه جعبهابزار داشته باشه. برادر آمیت این جعبه ابزار رو آماده کرده و کل ابزارها رو به ۵ دسته آمادهسازی داده، اکتشاف داده، مدلسازی، ولیدیشن و پروداکشن از استکها و تسکهای مختلف تقسیم کرده.
این پست رو حتما یه گوشهای ذخیره کنید که هر وقت به دوشواری خوردید، یه سری بهش بزنید.
لینک جعبهابزار:
https://amitness.com/toolbox
#tool
@nlp_stuff
سرو مدلهای تورچی با TorchServe
پایتورچ هم مثل تنسرفلو بالاخره کتابخونه سروینگش رو ارائه کرده. معادلش tfserve برای تنسرفلو میشه.
کاری که TorchServe انجام میده اینه که مدل شما رو به صورت یه http api تحویل میده. یعنی شما مدلتون رو آماده کنید و این براتون بالا میاره که راحت مثلا backendتون بهش درخواست بده و اینا از هم جدا باشند.
یه ویدیوی آموزشی هم دادند که مراحلش را توضیح میده. برای چند تا تسک مثل image classification کارهای سرو مدل رو خودش انجام میده و برای بقیه مدلها هم کافیه چهار تابع از یه کلاس رو پیاده کنید تا مثلا برای مدلهای هاگینگفیس هم بتونید راحت سرو کنید.
برای استفاده در kubeflow و mlflow یکپارچهاش کردند و مثالهای متنوعی واسه کتابخونه ترنسفورمرز هاگینگفیس و MMF و .. هم درست کردند که بهره ببرید.
لینک ویدیوی توضیح و دمو (حتما لینکهای توضیحات زیرش رو هم ببیینید):
https://www.youtube.com/watch?v=XlO7iQMV3Ik
پ.ن. پیش از این راجع به tfx در این پست [https://yangx.top/nlp_stuff/157] صحبت کرده بودیم.
#tool
#watch
@nlp_stuff
پایتورچ هم مثل تنسرفلو بالاخره کتابخونه سروینگش رو ارائه کرده. معادلش tfserve برای تنسرفلو میشه.
کاری که TorchServe انجام میده اینه که مدل شما رو به صورت یه http api تحویل میده. یعنی شما مدلتون رو آماده کنید و این براتون بالا میاره که راحت مثلا backendتون بهش درخواست بده و اینا از هم جدا باشند.
یه ویدیوی آموزشی هم دادند که مراحلش را توضیح میده. برای چند تا تسک مثل image classification کارهای سرو مدل رو خودش انجام میده و برای بقیه مدلها هم کافیه چهار تابع از یه کلاس رو پیاده کنید تا مثلا برای مدلهای هاگینگفیس هم بتونید راحت سرو کنید.
برای استفاده در kubeflow و mlflow یکپارچهاش کردند و مثالهای متنوعی واسه کتابخونه ترنسفورمرز هاگینگفیس و MMF و .. هم درست کردند که بهره ببرید.
لینک ویدیوی توضیح و دمو (حتما لینکهای توضیحات زیرش رو هم ببیینید):
https://www.youtube.com/watch?v=XlO7iQMV3Ik
پ.ن. پیش از این راجع به tfx در این پست [https://yangx.top/nlp_stuff/157] صحبت کرده بودیم.
#tool
#watch
@nlp_stuff
YouTube
How to Serve PyTorch Models with TorchServe
Hamid Shojanazeri is a Partner Engineer at PyTorch, here to demonstrate the basics of using TorchServe. As the preferred model serving solution for PyTorch, TorchServe allows you to expose a web API for your model that may be accessed directly or via your…
مدل big bird برای زبان فارسی
معماری برت با تمامی خوبیهایی که دارد اما یک نقطه ضعف بزرگ دارد که حداکثر رشتههایی با طول ۵۱۲ توکن را میتواند پردازش کند. این محدودیت در واقع ناشی از مرتبه محاسباتی درجه دو مکانیزم توجه بین توکنهای دنباله است (اگر دنباله به طول d باشه، d^2 عمل اتنشن بایستی در داخل آن رخ دهد که خب سنگین است). برای همین بار محاسباتی، چه آموزش و چه تست کردن مدل بر روی دنبالههای بلند عملا ناممکن میشود. این در حالی است که بسیاری از تسکهای پردازش زبان نظیر خلاصهسازی، نیازمند پردازش دنبالههای بسیار طولانیتر از ۵۱۲ توکن هستند. در طی این چند سال اخیر چندین معماری و راهکار جهت حل نیازمندی پردازش دنبالههای بلند خلق و پیشنهاد شدهاند. یکی از این معماریهای پیشنهادی، معماری bigbird است که در آن هر توکن به جای توجه بر تمام توکنها، صرفا به سه مجموعه توکن توجه میکند: توکنهای در همسایگی خود، تعداد اندکی توکن گلوبال و تعدادی توکن رندوم. معماری bigbird با همین ابتکار میتواند دنبالههایی با طول حداکثر ۴۰۹۶ توکن را به خوبی پردازش کند و جزو طلایهداران بعضی وظایف نظیر خلاصه سازی و حتی بعضی مسائل bioای باشد.
حالا آقای ایوبی آمدهاند و اولین مدل فارسی بر پایه bigbird را آموزش دادهاند و در اختیار عموم قرار دادهاند تا راهکاری برای پردازش متون طولانی فارسی باشد. این مدل طبق اذعان ایشان بینقص نیست اما گام اول خوبی جهت تحلیل متنهای بلند در زبان فارسی میتواند باشد. طرز استفاده از این مدل در ریپوی آن آمده است.
لینک ریپو:
https://github.com/sajjjadayobi/ParsBigBird
پ.ن. ۱: میتوانید با استار دادن هم خستگی را از تن توسعهدهنده مدل خارج کنید و هم از تمرکز بر روی پردازش زبان فارسی حمایت کنید. دریغ نفرمایید.
پ.ن. ۲: ریپو یا کد یا مدل یا دیتاست بهدردبخوری داشتید، ندا بدید که بعد از بررسی در کانال قرار بدیم.
#irani
#tool
@nlp_stuff
معماری برت با تمامی خوبیهایی که دارد اما یک نقطه ضعف بزرگ دارد که حداکثر رشتههایی با طول ۵۱۲ توکن را میتواند پردازش کند. این محدودیت در واقع ناشی از مرتبه محاسباتی درجه دو مکانیزم توجه بین توکنهای دنباله است (اگر دنباله به طول d باشه، d^2 عمل اتنشن بایستی در داخل آن رخ دهد که خب سنگین است). برای همین بار محاسباتی، چه آموزش و چه تست کردن مدل بر روی دنبالههای بلند عملا ناممکن میشود. این در حالی است که بسیاری از تسکهای پردازش زبان نظیر خلاصهسازی، نیازمند پردازش دنبالههای بسیار طولانیتر از ۵۱۲ توکن هستند. در طی این چند سال اخیر چندین معماری و راهکار جهت حل نیازمندی پردازش دنبالههای بلند خلق و پیشنهاد شدهاند. یکی از این معماریهای پیشنهادی، معماری bigbird است که در آن هر توکن به جای توجه بر تمام توکنها، صرفا به سه مجموعه توکن توجه میکند: توکنهای در همسایگی خود، تعداد اندکی توکن گلوبال و تعدادی توکن رندوم. معماری bigbird با همین ابتکار میتواند دنبالههایی با طول حداکثر ۴۰۹۶ توکن را به خوبی پردازش کند و جزو طلایهداران بعضی وظایف نظیر خلاصه سازی و حتی بعضی مسائل bioای باشد.
حالا آقای ایوبی آمدهاند و اولین مدل فارسی بر پایه bigbird را آموزش دادهاند و در اختیار عموم قرار دادهاند تا راهکاری برای پردازش متون طولانی فارسی باشد. این مدل طبق اذعان ایشان بینقص نیست اما گام اول خوبی جهت تحلیل متنهای بلند در زبان فارسی میتواند باشد. طرز استفاده از این مدل در ریپوی آن آمده است.
لینک ریپو:
https://github.com/sajjjadayobi/ParsBigBird
پ.ن. ۱: میتوانید با استار دادن هم خستگی را از تن توسعهدهنده مدل خارج کنید و هم از تمرکز بر روی پردازش زبان فارسی حمایت کنید. دریغ نفرمایید.
پ.ن. ۲: ریپو یا کد یا مدل یا دیتاست بهدردبخوری داشتید، ندا بدید که بعد از بررسی در کانال قرار بدیم.
#irani
#tool
@nlp_stuff
GitHub
GitHub - sajjjadayobi/ParsBigBird: Persian Bert For Long-Range Sequences
Persian Bert For Long-Range Sequences. Contribute to sajjjadayobi/ParsBigBird development by creating an account on GitHub.
This media is not supported in your browser
VIEW IN TELEGRAM
کوهستان RL؛ هدف بعدی هاگینگ فیس
هاگینگ فیس اعلام کرد که اولین محیط (environment) یادگیری تقویتی عمیق خودشون به نامSnowball Fight را منتشر کردند و همآورد طلبیدند که کی میتونه ایجنتشون رو شکست بده (لینک آخر پست). الان هم دارند محیطهای بعدی رو تولید میکنند. این محیطها با Unity ML-Agents تولید شدند. این زبونبسته یه ابزار اوپنسورسه که باهاش شما میتونید محیطی برای آموزش ایجنتتون بسازید.
هاگینگفیس طبق معمول برای این زمینه هم سه تا هدف برای اکوسیستمی که داره میسازه گذاشته:
- ملت بتونند محیط خودشون رو بسازند و با بقیه شیر کنند
- ملت مدلها و محیطهاشونو روی هاگینگ فیس host کنند مثل همین بازی که لینکشو پایین گذاشتیم.
- دمویی از مدلشون بتونند راحت بالا بیارند که نتایج رو بتونند به بقیه نشون بدهند.
لینک پست توضیح:
https://huggingface.co/blog/snowball-fight
لینک بازی:
https://huggingface.co/spaces/ThomasSimonini/SnowballFight
#tool
#link
@nlp_stuff
هاگینگ فیس اعلام کرد که اولین محیط (environment) یادگیری تقویتی عمیق خودشون به نامSnowball Fight را منتشر کردند و همآورد طلبیدند که کی میتونه ایجنتشون رو شکست بده (لینک آخر پست). الان هم دارند محیطهای بعدی رو تولید میکنند. این محیطها با Unity ML-Agents تولید شدند. این زبونبسته یه ابزار اوپنسورسه که باهاش شما میتونید محیطی برای آموزش ایجنتتون بسازید.
هاگینگفیس طبق معمول برای این زمینه هم سه تا هدف برای اکوسیستمی که داره میسازه گذاشته:
- ملت بتونند محیط خودشون رو بسازند و با بقیه شیر کنند
- ملت مدلها و محیطهاشونو روی هاگینگ فیس host کنند مثل همین بازی که لینکشو پایین گذاشتیم.
- دمویی از مدلشون بتونند راحت بالا بیارند که نتایج رو بتونند به بقیه نشون بدهند.
لینک پست توضیح:
https://huggingface.co/blog/snowball-fight
لینک بازی:
https://huggingface.co/spaces/ThomasSimonini/SnowballFight
#tool
#link
@nlp_stuff
لیبل استودیو؛ ابزاری که باید پر شال هر دیتاساینتیست باشد!
طبیعتا گام اول و تقریبا مهمترین گام در هر پروژه مدلسازی، جمعآوری دیتا و بهخصوص دیتای لیبلخورده است. حتما میدونید که این کار چقدر مشقتباره و زمان زیادی رو از تیم اشغال میکنه. حالا در این پست میخوایم یه ابزاری رو معرفی کنیم که خیلی راحت میتونید راهاندازیش کنید و خیلی راحت استفاده کنید. بله؛ label studio. این ابزار به راحتی با یه دستور pip نصب میشه و روی پورت موردنظر بالا میاد. سپس میتونید بهمقصود پروژههای مختلف در حوزه تکست، ویژن، ویدیو، صوت، دیتای ساختاریافته و خیلی چیزای دیگه پروژه بسازید و از تمپلیتهای آماده اون استفاده کنید. بعد به راحتی دیتاتون رو لیبل بزنید و به فرمتهای خروجی معتبر خروجی بگیرید. مثلا برای تسک named entity recognition میتونید به فرمت معتبر CoNLL خروجی بگیرید. البته این ابزار برای زبان فارسی چون پشتیبانی RTL نداره یه مقدار اذیتکننده است که در اون صورت میتونید از ریپوی معرفی شده ابزار رو clone کنید و به صورت local نصب کنید.
لینک ابزار:
https://labelstud.io
لینک ریپوی ساپورت RTL:
https://github.com/mmaghajani/label-studio
لینک ریپوی اصلی:
https://github.com/heartexlabs/label-studio
#tool
@nlp_stuff
طبیعتا گام اول و تقریبا مهمترین گام در هر پروژه مدلسازی، جمعآوری دیتا و بهخصوص دیتای لیبلخورده است. حتما میدونید که این کار چقدر مشقتباره و زمان زیادی رو از تیم اشغال میکنه. حالا در این پست میخوایم یه ابزاری رو معرفی کنیم که خیلی راحت میتونید راهاندازیش کنید و خیلی راحت استفاده کنید. بله؛ label studio. این ابزار به راحتی با یه دستور pip نصب میشه و روی پورت موردنظر بالا میاد. سپس میتونید بهمقصود پروژههای مختلف در حوزه تکست، ویژن، ویدیو، صوت، دیتای ساختاریافته و خیلی چیزای دیگه پروژه بسازید و از تمپلیتهای آماده اون استفاده کنید. بعد به راحتی دیتاتون رو لیبل بزنید و به فرمتهای خروجی معتبر خروجی بگیرید. مثلا برای تسک named entity recognition میتونید به فرمت معتبر CoNLL خروجی بگیرید. البته این ابزار برای زبان فارسی چون پشتیبانی RTL نداره یه مقدار اذیتکننده است که در اون صورت میتونید از ریپوی معرفی شده ابزار رو clone کنید و به صورت local نصب کنید.
لینک ابزار:
https://labelstud.io
لینک ریپوی ساپورت RTL:
https://github.com/mmaghajani/label-studio
لینک ریپوی اصلی:
https://github.com/heartexlabs/label-studio
#tool
@nlp_stuff
Telegram
stuff
دادن اطلاعات از شما، نوشتن متن با You
Hello,
If you're an artificial intelligence enthusiast, then you should definitely reshare posts from the nlp_stuff channel. nlp_stuff is a Telegram channel that's dedicated to AI news and advances. The subscribers of this channel can stay up to date with the latest in AI technology. However, some other channels do not comply with copyright law and copy posts from nlp_stuff into their own channels. This is unfair to the creators of nlp_stuff, and it also diminishes the quality of information that's available to AI enthusiasts. By resharing posts from the nLP_Stuff channel, you can help keep this information accessible and high-quality. Thanks for your support!
متنی که بالا دیدید رو هوش مصنوعی YOU نوشته (ما صرفا بهش توضیح بولتوار اندکی دادیم و این رو جنریت کرده). در سالهای اخیر محصولاتی نظیر grammarly و wordtune با استفاده از هوش مصنوعی و پردازش زبان تونسته اند محصولاتی رو جهت کمک به کاربران در زمینه اصلاح و ویرایش متون انگلیسی ارائه کنند. حالا در آخرین مورد، شرکت YOU (که در اصل یک موتور جستجوگر هست که برخی میگویند در سال های آینده امکان داره شانه به شانه گوگل بزنه) اومده و یک سرویس برای رایتینگ در زبان انگلیسی ارایه داده. شما میتونید یک توضیح مختصر راجع به چیزی که میخواید بنویسید و بعد انتخاب کنید که چه نوع خروجی میخواید. آیا میخواهید یک متن میل مناسب خروجی بگیرید یا یک متن بلاگ طور یا یک انشا. سپس You یک متن برای این مشخصات تعیینشده توسط شما جنریت میکنه.
ما اندکی با این دمو ور رفتیم و مثالهایی رو پیوست کردیم. فهمیدیم که این سرویس میتونه حتی با ورودی گرفتن یک عبارت کوتاه، متنی مستند و منطقی تولید کنید (به مثالی که راجع به تولید دانش بنیان در ایران تولید کرده دقت کنید).
محصولاتی مثل Grammarly و Wordtune و You Write نشون میدن که میشه با پردازش زبان هم محصول واقعی تولید کرد.
لینک برای امتحان کردن:
You.com/write
#link
#tool
@nlp_stuff
Hello,
If you're an artificial intelligence enthusiast, then you should definitely reshare posts from the nlp_stuff channel. nlp_stuff is a Telegram channel that's dedicated to AI news and advances. The subscribers of this channel can stay up to date with the latest in AI technology. However, some other channels do not comply with copyright law and copy posts from nlp_stuff into their own channels. This is unfair to the creators of nlp_stuff, and it also diminishes the quality of information that's available to AI enthusiasts. By resharing posts from the nLP_Stuff channel, you can help keep this information accessible and high-quality. Thanks for your support!
متنی که بالا دیدید رو هوش مصنوعی YOU نوشته (ما صرفا بهش توضیح بولتوار اندکی دادیم و این رو جنریت کرده). در سالهای اخیر محصولاتی نظیر grammarly و wordtune با استفاده از هوش مصنوعی و پردازش زبان تونسته اند محصولاتی رو جهت کمک به کاربران در زمینه اصلاح و ویرایش متون انگلیسی ارائه کنند. حالا در آخرین مورد، شرکت YOU (که در اصل یک موتور جستجوگر هست که برخی میگویند در سال های آینده امکان داره شانه به شانه گوگل بزنه) اومده و یک سرویس برای رایتینگ در زبان انگلیسی ارایه داده. شما میتونید یک توضیح مختصر راجع به چیزی که میخواید بنویسید و بعد انتخاب کنید که چه نوع خروجی میخواید. آیا میخواهید یک متن میل مناسب خروجی بگیرید یا یک متن بلاگ طور یا یک انشا. سپس You یک متن برای این مشخصات تعیینشده توسط شما جنریت میکنه.
ما اندکی با این دمو ور رفتیم و مثالهایی رو پیوست کردیم. فهمیدیم که این سرویس میتونه حتی با ورودی گرفتن یک عبارت کوتاه، متنی مستند و منطقی تولید کنید (به مثالی که راجع به تولید دانش بنیان در ایران تولید کرده دقت کنید).
محصولاتی مثل Grammarly و Wordtune و You Write نشون میدن که میشه با پردازش زبان هم محصول واقعی تولید کرد.
لینک برای امتحان کردن:
You.com/write
#link
#tool
@nlp_stuff
Telegram
stuff
دمو کردن ایده مثل آب خوردن
اگر کدی زدید که دوست دارید خیلی خیلی سریع و راحت ازش یه دمو بالا بیارید، از streamlit و Hugging Face Spaces میتونید استفاده کنید که هم یک ui خوشگلی داره، هم رایگانه و هم درگیر کانفیگ سرور و فلان هم نیستید. این پست بلاگ در عرض کمتر از ده دقیقه با دو تا مثال واقعی یادتون میده.
لینک بلاگ:
https://itnext.io/convert-your-ai-ideas-into-working-demos-on-hugging-face-spaces-2ba080482a16
لینک Hugging Face Spaces:
https://huggingface.co/spaces
#read
#blog
#tool
@nlp_stuff
اگر کدی زدید که دوست دارید خیلی خیلی سریع و راحت ازش یه دمو بالا بیارید، از streamlit و Hugging Face Spaces میتونید استفاده کنید که هم یک ui خوشگلی داره، هم رایگانه و هم درگیر کانفیگ سرور و فلان هم نیستید. این پست بلاگ در عرض کمتر از ده دقیقه با دو تا مثال واقعی یادتون میده.
لینک بلاگ:
https://itnext.io/convert-your-ai-ideas-into-working-demos-on-hugging-face-spaces-2ba080482a16
لینک Hugging Face Spaces:
https://huggingface.co/spaces
#read
#blog
#tool
@nlp_stuff
رهایی از دوراهی سخت؛ هم تنسورفلو، هم پایتورچ با IVY
تا به حال احتمالا با چالش سخت انتخاب بین تنسورفلو و پایتورچ مواجه شده باشید. اخیرا با اضافه شدن Jax هم این انتخاب سختتر شده. اما تیم unifyai یه فریمورک جدید به نام IVY معرفی کرده که یک syntax یکپارچه برای توسعه مدلهای دیپ داره و صرفا با تنظیم backend این پکیج روی هر یک از فریمورکهای تنسورفلو، پایتورچ و یا jax میتونید از عایدات همون ابزار بهرهمند بشید. البته این فریمورک در مسیر توسعه است و با توجه به عمر کوتاهش اما تعداد استار بسیار زیادی گرفته که نشون میده به نظر راه درستی رو داره میره.
لینک گیتهاب:
https://github.com/unifyai/ivy
#tool
@nlp_stuff
تا به حال احتمالا با چالش سخت انتخاب بین تنسورفلو و پایتورچ مواجه شده باشید. اخیرا با اضافه شدن Jax هم این انتخاب سختتر شده. اما تیم unifyai یه فریمورک جدید به نام IVY معرفی کرده که یک syntax یکپارچه برای توسعه مدلهای دیپ داره و صرفا با تنظیم backend این پکیج روی هر یک از فریمورکهای تنسورفلو، پایتورچ و یا jax میتونید از عایدات همون ابزار بهرهمند بشید. البته این فریمورک در مسیر توسعه است و با توجه به عمر کوتاهش اما تعداد استار بسیار زیادی گرفته که نشون میده به نظر راه درستی رو داره میره.
لینک گیتهاب:
https://github.com/unifyai/ivy
#tool
@nlp_stuff
Telegram
stuff
رستگاری تنسورها با einops
آیا در کد زدن در یادگیری عمیق تنبلید؟ آیا در استفاده از متدهایی مثل reshape و transpose و repeat و reduce گرگیجه میگیرید؟ آیا کدهای یادگیری عمیقیتان بعد از نوشتن غیرقابل فهم میشوند؟ ما به شما کتابخانه einops را پیشنهاد میکنیم!
ماجرای این کتابخونه از نمادگذاری انیشتین آغاز میشه. انیشتین در سال ۱۹۱۶ این نمادگذاری رو برای راحتتر نشون دادن محاسبات تنسوری معرفی کرد و از اونجا که واقعا نسبت به فرمولنویسیهای قدیم سهولت و فهم بیشتری داشت، این نمادگذاری رایج شد. حالا با الهامگیری از همین نمادگذاری، کتابخونه einops برای سهولت در نوشتن عملیاتهای تنسوری ارائه شده. حالا با یک مثال کوتاه خودتون ببنید که چطوری با einops میشه کد خط اول ذیل رو خیلی راحت تر و قابل خوندن تر به صورت کد خط دوم نوشت.
y = x.transpose(0, 2, 3, 1)
y = einops.rearrange(x, 'b c h w -> b h w c')
این کد اومده تنسوری که ابعادش b c h w بوده (مثل بچ b از تصویرها که c کانال دارند و ابعاد هر تصویر هم h و w هستند) رو به b h w c تغییر داده، این کد رو اگه با پایتورچ خالص بخواهید بنویسید، اون کد خیلی زشت و ناخوانا میشه چون توش ابعاد رو با صفر و یک و ... باید مشخص کنید که اولا هم ریسک باگ زدن رو بالا میبره و بعدا که میخواید کدتون رو بخونید به توبه میفتید)
به طور خیلی اجمالی، کتابخونه einops سه متد پایه rearrange و repeat و reduce داره که باهاش میشه عملیاتهای تنسوری مختلف رو در جنبههای تغییر و تکرار و خردکردن ابعاد انجام داد. این کتابخونه رو از دست ندید اگر اهل خوندن کد هم باشید میبینید که بسیاری از دولوپرهای مطرح دیپ لرنینگی از این کتابخونه برای کدهاشون استفاده میکنند. نکته آخر هم این که این کتابخونه برای فریمورکهای مختلف نظیر پایتورچ و تنسورفلو و نامپای و جکس قابل استفاده است.
برای آشنایی بیشتر با einops میتونید لینکهای زیر رو بببنید:
لینک رپوی einops:
https://github.com/arogozhnikov/einops
لینکهای مفید برای آشنایی با einops:
https://cgarciae.github.io/einops/
https://openreview.net/pdf?id=oapKSVM2bcj
پ.ن.: هر چه قدر شما بیشتر شیر کردید انرژی بیشتری برای ادامه و درستکردن پستهای بهتر میگیریم. مرسی که تا همینجا هم خیلی بهمون لطف داشتید.
#tool
@nlp_stuff
آیا در کد زدن در یادگیری عمیق تنبلید؟ آیا در استفاده از متدهایی مثل reshape و transpose و repeat و reduce گرگیجه میگیرید؟ آیا کدهای یادگیری عمیقیتان بعد از نوشتن غیرقابل فهم میشوند؟ ما به شما کتابخانه einops را پیشنهاد میکنیم!
ماجرای این کتابخونه از نمادگذاری انیشتین آغاز میشه. انیشتین در سال ۱۹۱۶ این نمادگذاری رو برای راحتتر نشون دادن محاسبات تنسوری معرفی کرد و از اونجا که واقعا نسبت به فرمولنویسیهای قدیم سهولت و فهم بیشتری داشت، این نمادگذاری رایج شد. حالا با الهامگیری از همین نمادگذاری، کتابخونه einops برای سهولت در نوشتن عملیاتهای تنسوری ارائه شده. حالا با یک مثال کوتاه خودتون ببنید که چطوری با einops میشه کد خط اول ذیل رو خیلی راحت تر و قابل خوندن تر به صورت کد خط دوم نوشت.
y = x.transpose(0, 2, 3, 1)
y = einops.rearrange(x, 'b c h w -> b h w c')
این کد اومده تنسوری که ابعادش b c h w بوده (مثل بچ b از تصویرها که c کانال دارند و ابعاد هر تصویر هم h و w هستند) رو به b h w c تغییر داده، این کد رو اگه با پایتورچ خالص بخواهید بنویسید، اون کد خیلی زشت و ناخوانا میشه چون توش ابعاد رو با صفر و یک و ... باید مشخص کنید که اولا هم ریسک باگ زدن رو بالا میبره و بعدا که میخواید کدتون رو بخونید به توبه میفتید)
به طور خیلی اجمالی، کتابخونه einops سه متد پایه rearrange و repeat و reduce داره که باهاش میشه عملیاتهای تنسوری مختلف رو در جنبههای تغییر و تکرار و خردکردن ابعاد انجام داد. این کتابخونه رو از دست ندید اگر اهل خوندن کد هم باشید میبینید که بسیاری از دولوپرهای مطرح دیپ لرنینگی از این کتابخونه برای کدهاشون استفاده میکنند. نکته آخر هم این که این کتابخونه برای فریمورکهای مختلف نظیر پایتورچ و تنسورفلو و نامپای و جکس قابل استفاده است.
برای آشنایی بیشتر با einops میتونید لینکهای زیر رو بببنید:
لینک رپوی einops:
https://github.com/arogozhnikov/einops
لینکهای مفید برای آشنایی با einops:
https://cgarciae.github.io/einops/
https://openreview.net/pdf?id=oapKSVM2bcj
پ.ن.: هر چه قدر شما بیشتر شیر کردید انرژی بیشتری برای ادامه و درستکردن پستهای بهتر میگیریم. مرسی که تا همینجا هم خیلی بهمون لطف داشتید.
#tool
@nlp_stuff
GitHub
GitHub - arogozhnikov/einops: Flexible and powerful tensor operations for readable and reliable code (for pytorch, jax, TF and…
Flexible and powerful tensor operations for readable and reliable code (for pytorch, jax, TF and others) - arogozhnikov/einops
ابزار markitdown؛ همه چیز را به فرمت markdown تبدیل کن!
ما با معرفی یه ابزار بهدردبخور برگشتیم!
مایکروسافت یک کتابخونه به نام MarkItDown را به صورت متنباز بیرون داده که باهاش میتونید فایلهایی با فرمتهای زیر (فرمتهای آفیسش مهمه) را به فرمت markdown (مثل فایلهای readme گیت) تبدیل کنید. همچین ابزاری موقع ساختن دیتاست (برای آموزش مدل زبانی مثلا) خیلی میتونه کمک کنه. تا حالا هم بیشتر از ۳۰ هزارتا استار گرفته. فایل ورد فارسی رو هم خوب پشتیبانی میکنه اما پیدیاف فارسیش تعریفی نداره. برای OCR و تبدیل صوت هم به llmها مثل جیپیتی وصل میشه. خدا بده برکت. فرمتهای پشتیبانی شده:
• PDF
• PowerPoint
• Word
• Excel
• Images (EXIF metadata and OCR)
• Audio (EXIF metadata and speech transcription)
• HTML
• Text-based formats (CSV, JSON, XML)
• ZIP files (iterates over contents)
لینک ریپو گیتهاب:
https://github.com/microsoft/markitdown/tree/main
#tool
@nlp_stuff
ما با معرفی یه ابزار بهدردبخور برگشتیم!
مایکروسافت یک کتابخونه به نام MarkItDown را به صورت متنباز بیرون داده که باهاش میتونید فایلهایی با فرمتهای زیر (فرمتهای آفیسش مهمه) را به فرمت markdown (مثل فایلهای readme گیت) تبدیل کنید. همچین ابزاری موقع ساختن دیتاست (برای آموزش مدل زبانی مثلا) خیلی میتونه کمک کنه. تا حالا هم بیشتر از ۳۰ هزارتا استار گرفته. فایل ورد فارسی رو هم خوب پشتیبانی میکنه اما پیدیاف فارسیش تعریفی نداره. برای OCR و تبدیل صوت هم به llmها مثل جیپیتی وصل میشه. خدا بده برکت. فرمتهای پشتیبانی شده:
• PowerPoint
• Word
• Excel
• Images (EXIF metadata and OCR)
• Audio (EXIF metadata and speech transcription)
• HTML
• Text-based formats (CSV, JSON, XML)
• ZIP files (iterates over contents)
لینک ریپو گیتهاب:
https://github.com/microsoft/markitdown/tree/main
#tool
@nlp_stuff
👍4