یادگیری ماشین
3.42K subscribers
21 photos
2 videos
26 files
138 links
加入频道
حتماً با بازی پیکشنری (حداقل از طریق خندوانه!) آشنا هستید. اکنون می‌توانید این بازی را با هوش مصنوعی مؤسسه‌ی آلن انجام دهید.
آدرس سایت:
https://iconary.allenai.org
ویدئوی معرفی:
https://www.youtube.com/watch?v=HdXQTuOTXEw
کورس "پردازش زبان‌های طبیعی با یادگیری عمیق" توسط پروفسور کریستوفر منینگ استاد سرشناس دانشگاه استنفورد در ترم جاری نیز در حال برگزاری است. ویدئوهای این کورس از آدرس زیر قابل دسترسی است:
https://www.youtube.com/watch?v=8rXD5-xhemo&list=PLoROMvodv4rOhcuXMZkNm7j3fVwBBY42z
جهت اطلاع: در کانال زیر از یوتیوب، تکه‌های کوتاه (حدود دو دقیقه) از مصاحبه با برندگان جایزه‌ی نوبل در موضوعات مختلف جمع‌آوری شده است:
https://www.youtube.com/channel/UCK6foRGydQswdnkPG-EO45Q
توئیت آقای مکرون رئیس جمهور فرانسه پس از این‌که جایزه‌ی تورینگ ۲۰۱۸ (معادل نوبل کامپیوتر) به سه نفر از بزرگان یادگیری عمیق (از جمله آقای یان لکون که اصالتاً فرانسوی هستند) اختصاص یافت. ایشان در این توئیت به این مورد اشاره می‌کنند که یکی از اولویت‌های دولت فرانسه این است که یکی از رهبران حوزه‌ی هوش مصنوعی شود.
یک خلاصه از مقاله‌ای جالب که تخمین می‌زند حجم دانش زبانی که یک بزرگسال انگلیسی زبان (در حد متوسط) یاد می‌گیرد، حدود ۱.۵ مگابایت است (این را با حجم پارامترهای شبکه‌های عصبی موجود مقایسه کنید). همچنین اشاره می‌کند که اکثر این دانش مربوط به بُعد معنایی زبان (semantic) است نه بُعد نحوی (syntax).
https://news.berkeley.edu/2019/03/27/younglanguagelearners/
یادگیری ماشین
یک خلاصه از مقاله‌ای جالب که تخمین می‌زند حجم دانش زبانی که یک بزرگسال انگلیسی زبان (در حد متوسط) یاد می‌گیرد، حدود ۱.۵ مگابایت است (این را با حجم پارامترهای شبکه‌های عصبی موجود مقایسه کنید). همچنین اشاره می‌کند که اکثر این دانش مربوط به بُعد معنایی زبان (semantic)…
پس از بررسی دقیق‌تر و مکاتبه با نویسنده‌ی مقاله مشخص شد که حجم ۱.۵ مگابایت تخمین زده شده درواقع تخمینی از حافظه‌ی مورد نیاز برای بازنمایی خروجی است و به مدل ساخته شده در مغز برای تولید خروجی توجهی نشده است. این درحالی است که از عنوان مقاله این انتظار می‌رود که به دانش زبانی ذخیره شده در مغز پرداخته شود. بنابراین، برخلاف عنوان مقاله نمی‌توان نتیجه گرفت که حجم دانش زبانی یاد گرفته شده توسط انسان حدود ۱.۵ مگابایت است.
یادگیری ماشین
ویدئوی کوتاه تولید شده توسط ACM برای معرفی برندگان جایزه‌ی تورینگ ۲۰۱۸: https://www.youtube.com/watch?v=Fn589zeMij4&feature=youtu.be
یک جمله‌ی جالب از پروفسور هینتون در این ویدئو:
If you have an idea and it seems to you it has to be right, don't let people tell you it is silly. Just ignore them.
مدل GPT-2 برای تولید متون توسط ماشین، در ماه‌های گذشته خروجی‌های چشمگیری ارائه داد و مورد توجه قرار گرفت. اخیراً huggingface ابزار زیر را در قالب یک محیط تعاملی ارائه داده است که بعنوان یک واسط از مدل GPT-2 می‌تواند مورد استفاده قرار گیرد. کافی است یک متن را در این محیط وارد کنید و با زدن دکمه‌ی tab پیشنهادهای ماشین را برای تکمیل متن وارد شده مشاهده کرده و احتمالاً شگفت‌زده شوید.
https://transformer.huggingface.co
کورس جدید پردازش زبان‌های طبیعی از fast.ai. ویژگی‌ کورس‌های fast.ai این است که از رویکرد بالا به پایین استفاده می‌کند، یعنی تمرکز بر پیاده‌سازی و سپس وارد شدن به جزئیات و مؤلفه‌های سیستم:
https://www.youtube.com/playlist?list=PLtmWHNX-gukKocXQOkQjuVxglSDYWsSh9
کتابخانه‌ای از مدل‌های پیش آموزش داده شده‌ی مربوط به پردازش زبان‌های طبیعی. این کتابخانه شامل مدل‌های لبه‌ی علم است بطوریکه حتی مدل XLNet را هم که حدود یک ماه پیش معرفی شده است (و در بسیاری از وظایف از BERT پیشی گرفته است) شامل می‌شود:
https://github.com/huggingface/pytorch-transformers
معرفی ۱۰ کتاب مربوط به یادگیری ماشین. این ده کتاب به خوبی جنبه‌های مختلف مرتبط با هوش مصنوعی (اعم از هوش طبیعی، یادگیری ماشین، روش‌های احتمالاتی، یادگیری عمیق، یادگیری تقویتی، علوم داده و پیاده‌سازی با پایتون) را پوشش می‌دهند:
https://www.youtube.com/watch?v=1lxHH1UBTBU
ابزاری برای کمک به تکمیل کد در حین برنامه‌نویسی (code autocompletion) مبتنی بر مدل GPT-2 آموزش داده شده روی حدود ۲ میلیون فایل از گیت‌هاب:
https://tabnine.com/blog/deep?utm_campaign=NLP%20News&utm_medium=email&utm_source=Revue%20newsletter
کنفرانس ACL بعنوان معتبرترین رویداد حوزه‌ی پردازش زبان‌های طبیعی از دو روز دیگر در فلورانس ایتالیا آغاز به کار می‌کند. در لینک زیر آمارهایی از مقالات ارسال شده به این کنفرانس ارائه شده است:
http://acl2019pcblog.fileli.unipi.it/?p=161
دو مورد قابل توجه:
تعداد مقالات ارسالی نسبت به سال ۲۰۱۸ تقریبا دو برابر شده است.
از ایران ۳ مقاله ارسال شده است که متاسفانه هیچ کدام پذیرفته نشده‌اند.
👍1
از سال ۲۰۱۲ تا ۲۰۱۸ بیشینه‌ی حجم محاسبات برای آموزش مدل‌های عمیق بیش از ۳۰۰ هزار برابر شده است:
https://openai.com/blog/ai-and-compute/

این موضوع دو نتیجه‌ی نامطلوب به همراه داشته است: تاثیرات نامطلوب زیست‌محیطی آموزش این مدل‌ها و انحصاری شدن تحقیقات مربوط به هوش مصنوعی برای شرکت‌های بزرگی که امکان انجام این حجم محاسبات را دارند. چند روز پیش مقاله‌ا‌ی توسط مرکز هوش مصنوعی آلن، موضوع هوش مصنوعی سبز را برای مقابله با این چالش پیشنهاد داده است، به این معنی که کارایی روش پیشنهادی نیز در کنار دقت روش برای ارزیابی مورد توجه قرار گیرد:
https://arxiv.org/pdf/1907.10597.pdf
سخنرانی تورینگ (Turing Lecture) که بطور سالیانه توسط یک سخنران سرشناس در حوزه‌ی علوم کامپیوتر انجام می‌شود، امسال توسط Hinton و LeCun (از برندگان جایزه‌ی تورینگ ۲۰۱۸) برگزار شد. ویدئوی سخنرانی را می‌توانید در لینک زیر مشاهده کنید (سخنرانی از دقیقه‌ی ۱۰ شروع می‌شود):
https://www.youtube.com/watch?v=VsnQf7exv5I