Machine Learning NLP + CV
286 subscribers
223 photos
53 videos
42 files
474 links
مطالب مفید در حوزه های یادگیری ماشین و بینایی کامپیوتر
加入频道
Summary of Model Based Reinforcement Learning tutorial from #ICML2020

https://t.co/VQI2k76wIY
https://t.co/wBYRniAESd

@ml_nlp_cv
#سخنرانی

"Actual Causality and Counter-Factual Reasoning"

Mohammad Reza Mousavi

University of Leicester


‼️سخنرانی به‌صورت آنلاین می‌باشد. پس از ثبت‌نام، اطلاعات و نحوه شرکت در رویداد از طریق ایمیل اطلاع‌رسانی خواهد شد.


📆 سه‌شنبه ٢٠ آبان‌ماه ۱۳۹۹

🕚 ساعت ١١:٣٠ الی ١٢:٣٠

ثبت‌نام(الزامی):

teias.institute/mousavi-talk202011/

@pasargadschools
دوره‌ی یادگیری عمیق دانشگاه NYU که توسط اساتیدی مانند Yann LeCun و Alfredo Canziani ارائه شده و به 11 زبان از جمله زبان فارسی موجود است:

زبان انگلیسی:
https://atcold.github.io/pytorch-Deep-Learning/

زبان فارسی:
https://atcold.github.io/pytorch-Deep-Learning/fa/

@ml_nlp_cv
Constructive Representation Learning
📗 یک مقاله مروری عالی. https://arxiv.org/abs/2010.05113

@ml_nlp_cv
MIT Technology Review: AI has cracked a key mathematical puzzle for understanding our world
yun.ir/fswkxb

"...
#Computer_vision. Operator learning is not restricted to PDEs. Images can naturally be viewed as real-valued functions on 2-d domains and videos simply add a temporal structure. Our approach is therefore a natural choice for problems in computer vision where invariance to discretization crucial. We leave this as an interesting and exciting future direction."

@ml_nlp_cv
The Roadmap of Mathematics for #Deep_Learning

@ml_nlp_cv
Forwarded from Tensorflow(@CVision) (Vahid Reza Khazaie)
Large-scale multilingual audio visual dubbing

Paper: https://arxiv.org/pdf/2011.03530v1.pdf

توی این مقاله روشی ارائه شده که میتونه فیلم رو با دقت بالایی از یه زبان به یه زبان دیگه ترجمه و دوبله کنه. میتونید نمونه این دوبله‌ها رو در این جا ببینید:

https://m.youtube.com/channel/UC6CIb_eaKEsKE213TVEdYFw/videos?view=0
Forwarded from NLP stuff
یکی از مباحث مهم، کوچک کردن مدل‌های غول‌پیکره. قبلا یه پست (https://yangx.top/nlp_stuff/60) درباره‌اش گذاشته بودیم. Quantization یکی دیگه از روش‌های کوچک کردن مدل‌های بزرگه. در این روش بدون آموزش مجدد، مثلا اعداد اعشاری ۳۲ بیتی با یک عدد صحیح ۸ بیتی تخمین زده میشه و با اینکه کارایی مدل یه ذره کم میشه، اما حجم مدل خیلی پایین میاد و کلی در مصرف رم و حافظه صرفه‌جویی میشه و سرعت بالا میره.
در لینک زیر این روش برای مدل‌های کتابخانه‌ی hugging face و با استفاده از کتابخانه‌ی ONNX Runtime پیاده شده و نتایج مقایسه شده:

https://medium.com/microsoftazure/faster-and-smaller-quantized-nlp-with-hugging-face-and-onnx-runtime-ec5525473bb7

#read
#blog

@nlp_stuff
یکی از مقالاتی که در کنفرانس #ICLR2021 ازش خواهیم شنید.

Grounded Language Learning Fast and Slow
https://arxiv.org/abs/2009.01719

@ml_nlp_cv
📕Language Model is All You Need
Natural Language Understanding as #Question_Answering

📄 Abstract 📗Download

@ml_nlp_cv
This media is not supported in your browser
VIEW IN TELEGRAM
دانشمندان نخستین نورون‌های مصنوعی را ساختند. این گروه ویژگی‌های الکتریکی نورون‌های بیولوژیکی را بر روی میکروتراشه بازسازی کردند. این کشف می‌تواند دنیای تجهیزات پزشکی و ایمپلنت‌ها را تحت تأثیر قرار دهد. این پژوهش در دنیای پزشکی یک هدف بزرگ است چرا که می‌تواند بیماری‌های مزمن که نورون‌ها به درستی کار نمی‌کنند را درمان کند. برای نمونه در درمان آسیب نخاعی یا آلزایمر.
#پزشکی
@exosnews
🆔 @HTN_SFT