Machine Learning NLP + CV
286 subscribers
223 photos
53 videos
42 files
474 links
مطالب مفید در حوزه های یادگیری ماشین و بینایی کامپیوتر
加入频道
Forwarded from زانکو (Javad Amirian)
سلاح‌های هوشمند
ربات‌هایی که برای کشتار آزاد می‌شوند!
(قسمت اول)

ویدیوی بالا را احتمالا قبلا دیدید: یک فیلم تخیلی کوتاه، اما فوق‌العاده ترسناک. اینکه ربات‌ها چگونه میتوانند به سلاح‌های بی‌رحمی تبدیل شوند تا جان آدم‌ها را بصورت "هوشمند" هدف قرار دهند.

قسمت آخر ویدیو هم سخنان استوارت راسل است، استاد سرشناس هوش مصنوعی دانشگاه برکلی که کتابش در بسیاری از دانشگاه‌های ایران هم تدریس میشود. راسل راجع به توسعه‌ی «ماشین‌های قاتل» هشدار میدهد: "آنها میتوانند امنیت و آزادی ما را هدف قرار دهند."

احتمالا شما هم شنیده‌اید که این فناوری‌ها (ربات‌های قاتل/ سلاح‌های هوشمند) به این فیلم تخیلی محدود نمی‌شوند. در واقع تحقیقات زیادی در زمینه ربات‌های نظامی‌ در حال انجام است و بعضا به مرحله‌ی محصول هم رسیده‌اند. مثلا نیروی هوایی آمریکا پیش‌بینی کرده، که تیم‌های ضربت، در عملیات‌های گروگان‌گیری، در آینده از ربات‌های بسیار کوچکی (در ابعاد یک حشره) که به دوربین مجهزند استفاده خواهند کرد.

یا مثلا «واحد تحقیقات پیشرفته وزارت دفاع» آمریکا یا همان DARPA از پروژه‌ای به نام OFFSET نام می‌برد که در آن دسته‌هایی از 250 ربات پرنده در پروژه‌های پیچیده نظامی شرکت خواهند کرد؛ و برای همین در حال تحقیق روی رفتارهای گروهی پرنده‌ها، ماهی‌ها، حشره‌ها و انسان‌ها هستند.

در لینک زیر تعدادی از پروژه‌های رباتیک در حوزه‌ی نظامی را میتوانید ببینید:
https://eandt.theiet.org/content/articles/2018/11/military-by-nature-biomimetic-inspiration-for-future-armies/

یک اتفاق جالب دیگر، رمانی به نام Ghost Fleet (ناوگان اشباح) است که در سال 2015 چاپ شده. این کتاب، جنگ آمریکا با چین و روسیه را در آینده‌ای نزدیک به تصویر می‌کشد. با توصیفاتی از ربات‌های پرنده، سلاح‌های لیزری و غیره. جالب اینجاست که این کتاب بهیچ وجه یک رمان فانتزی معمولی نیست. نویسنده(ها) در نقطه به نقطه‌ی کتاب، پانویس‌هایی قرار داده‌ و به مقاله‌ها و مستنداتی واقعی اشاره می‌کنند که این سخت‌افزارها و نرم‌افزارهای جنگی هوشمند، واقعا در حال توسعه هستند!

ادامه دارد...

زانکو
@zankoo_ai
Summary of Model Based Reinforcement Learning tutorial from #ICML2020

https://t.co/VQI2k76wIY
https://t.co/wBYRniAESd

@ml_nlp_cv
#سخنرانی

"Actual Causality and Counter-Factual Reasoning"

Mohammad Reza Mousavi

University of Leicester


‼️سخنرانی به‌صورت آنلاین می‌باشد. پس از ثبت‌نام، اطلاعات و نحوه شرکت در رویداد از طریق ایمیل اطلاع‌رسانی خواهد شد.


📆 سه‌شنبه ٢٠ آبان‌ماه ۱۳۹۹

🕚 ساعت ١١:٣٠ الی ١٢:٣٠

ثبت‌نام(الزامی):

teias.institute/mousavi-talk202011/

@pasargadschools
دوره‌ی یادگیری عمیق دانشگاه NYU که توسط اساتیدی مانند Yann LeCun و Alfredo Canziani ارائه شده و به 11 زبان از جمله زبان فارسی موجود است:

زبان انگلیسی:
https://atcold.github.io/pytorch-Deep-Learning/

زبان فارسی:
https://atcold.github.io/pytorch-Deep-Learning/fa/

@ml_nlp_cv
Constructive Representation Learning
📗 یک مقاله مروری عالی. https://arxiv.org/abs/2010.05113

@ml_nlp_cv
MIT Technology Review: AI has cracked a key mathematical puzzle for understanding our world
yun.ir/fswkxb

"...
#Computer_vision. Operator learning is not restricted to PDEs. Images can naturally be viewed as real-valued functions on 2-d domains and videos simply add a temporal structure. Our approach is therefore a natural choice for problems in computer vision where invariance to discretization crucial. We leave this as an interesting and exciting future direction."

@ml_nlp_cv
The Roadmap of Mathematics for #Deep_Learning

@ml_nlp_cv
Forwarded from Tensorflow(@CVision) (Vahid Reza Khazaie)
Large-scale multilingual audio visual dubbing

Paper: https://arxiv.org/pdf/2011.03530v1.pdf

توی این مقاله روشی ارائه شده که میتونه فیلم رو با دقت بالایی از یه زبان به یه زبان دیگه ترجمه و دوبله کنه. میتونید نمونه این دوبله‌ها رو در این جا ببینید:

https://m.youtube.com/channel/UC6CIb_eaKEsKE213TVEdYFw/videos?view=0
Forwarded from NLP stuff
یکی از مباحث مهم، کوچک کردن مدل‌های غول‌پیکره. قبلا یه پست (https://yangx.top/nlp_stuff/60) درباره‌اش گذاشته بودیم. Quantization یکی دیگه از روش‌های کوچک کردن مدل‌های بزرگه. در این روش بدون آموزش مجدد، مثلا اعداد اعشاری ۳۲ بیتی با یک عدد صحیح ۸ بیتی تخمین زده میشه و با اینکه کارایی مدل یه ذره کم میشه، اما حجم مدل خیلی پایین میاد و کلی در مصرف رم و حافظه صرفه‌جویی میشه و سرعت بالا میره.
در لینک زیر این روش برای مدل‌های کتابخانه‌ی hugging face و با استفاده از کتابخانه‌ی ONNX Runtime پیاده شده و نتایج مقایسه شده:

https://medium.com/microsoftazure/faster-and-smaller-quantized-nlp-with-hugging-face-and-onnx-runtime-ec5525473bb7

#read
#blog

@nlp_stuff
یکی از مقالاتی که در کنفرانس #ICLR2021 ازش خواهیم شنید.

Grounded Language Learning Fast and Slow
https://arxiv.org/abs/2009.01719

@ml_nlp_cv
📕Language Model is All You Need
Natural Language Understanding as #Question_Answering

📄 Abstract 📗Download

@ml_nlp_cv