شبکههای عصبی مصنوعی، تاریخچهی پر فراز و نشیب و جذابی داشتهاند. اولین مدل ریاضی شبکههای عصبی، حدود ۷۵ سال پیش (۱۹۴۳ میلادی) در مقالهی کلیدی آقایان McCulloch وPitts با عنوان زیر معرفی شد.
A Logical Calculus of Ideas Immanent in Nervous Activity
در اواخر دههی ۵۰ میلادی، موفقیتهای نمادگرایان (Symbolists) باعث به حاشیه رفتن شبکههای عصبی شد. با این وجود، مدل معروف ارائه شده توسط رزنبلت (Rosenblatt) با نام پرسپترون (معرفی شده در سال ۱۹۵۸)، حوزهی شبکههای عصبی را زنده نگاه داشت. وی پیشبینی کرده بود که پرسپترون میتواند نهایتاً یاد بگیرد، تصمیمگیری کند و ترجمهی بین زبانی انجام دهد.
در سال ۱۹۶۹ انتشار کتابی با عنوان Perceptrons توسط مینسکی و پاپارت (Minsky و Papert) باعث ایجاد یک خزان در تحقیقات مربوط به شبکههای عصبی شد. در این کتاب، محدودیتهای شبکههای عصبی فاقد لایهی مخفی، بطور دقیق اثبات شد و همچنین، دربارهی پیچیدگی یادگیری شبکههای چندلایه، ادعاهای بدون اثباتی مطرح شد. این کتاب باعث شد که بودجههای تحقیقاتی مربوط به شبکههای عصبی در کل دههی هفتاد و اوایل دههی هشتاد میلادی بهشدت کاهش یابد. البته در همین دوره کارهای محدودی انجام شد که مهمترین آنها، استفاده از روش پسانتشار خطا (error backpropagation) توسط آقای Paul Werbos برای آموزش پارامترهای موجود در لایههای مخفی شبکههای عصبی میباشد (این کار در تز دکترای ایشان در سال ۱۹۷۴ میلادی در دانشگاه هاروارد انجام پذیرفت).
در اواسط دههی ۸۰ میلادی، نمایش موفقیت الگوریتم پسانتشار خطا در یادگیری بازنمایی مناسب دادهها در لایههای مخفی شبکههای عصبی توسط دانشمندانی مانند Rumelhart، Hinton و Ronald Williams به خزان شبکههای عصبی پایان داد و حیاتی جدید در تحقیقات این حوزه را آغاز کرد. متأسفانه آقای رزنبلت نزدیک دو سال پس از انتشار کتاب Perceptrons در روز تولد ۴۳ سالگی خود در یک تصادف قایقرانی جان باخت و نتوانست شاهد پیشرفت شبکههای عصبی باشد. آقایان مینسکی و پاپارت هر دو در سال گذشتهی میلادی (۲۰۱۶) در سن ۸۸ سالگی درگذشتند.
حدود بیست سال تحقیقات روی شبکههای عصبی با فراز و نشیبهایی دنبال شد تا اینکه حدود ده سال پیش، موج جدیدی از موفقیتهای شبکههای عصبی به راه افتاد. موفقیتهای حاصل شده در این ده سال، حقیقتاً حیرتآور هستند. بهعنوان یک نمونه، در اواخر سال ۲۰۱۵ میلادی، ماشینهای مبتنی بر شبکههای عصبی توانستند در تشخیص اشیاء موجود در تصاویر طبیعی، دقتی بالاتر از دقت انسان بدست آورند (در مجموعهای بزرگ از تصاویر از ۱۰۰۰ دستهی موجود). حیرتآور بودن این دستاوردها حتی برای محققین تراز اول هوش مصنوعی نیز قابل کتمان نیست. بهعنوان مثال، خانم Daphne Koller در رخداد google IO 2017 بیان میکنند که ما پنج سال پیش تخمین میزدیم که ۲۰ سال دیگر در جایی باشیم که اکنون هستیم (بطور خاص در مسئلهی تشخیص اشیاء در تصاویر). البته این موفقیتها محدود به مسائل مربوط به بینایی ماشین نبوده و در کاربردهای متنوع دیگر از جمله تشخیص صحبت، پردازش زبانهای طبیعی، اتومبیلهای خودران، کاربردهای پزشکی، کاربردهای هنری و غیره نیز خود را نشان داده است.
راجع به دلایل موفقیت ده سال اخیر شبکههای عصبی (بطور خاص، شبکههای عصبی عمیق) بحثهای فراوانی مطرح میشود که بیان دقیق آنها نیازمند مطلبی مجزا میباشد.
A Logical Calculus of Ideas Immanent in Nervous Activity
در اواخر دههی ۵۰ میلادی، موفقیتهای نمادگرایان (Symbolists) باعث به حاشیه رفتن شبکههای عصبی شد. با این وجود، مدل معروف ارائه شده توسط رزنبلت (Rosenblatt) با نام پرسپترون (معرفی شده در سال ۱۹۵۸)، حوزهی شبکههای عصبی را زنده نگاه داشت. وی پیشبینی کرده بود که پرسپترون میتواند نهایتاً یاد بگیرد، تصمیمگیری کند و ترجمهی بین زبانی انجام دهد.
در سال ۱۹۶۹ انتشار کتابی با عنوان Perceptrons توسط مینسکی و پاپارت (Minsky و Papert) باعث ایجاد یک خزان در تحقیقات مربوط به شبکههای عصبی شد. در این کتاب، محدودیتهای شبکههای عصبی فاقد لایهی مخفی، بطور دقیق اثبات شد و همچنین، دربارهی پیچیدگی یادگیری شبکههای چندلایه، ادعاهای بدون اثباتی مطرح شد. این کتاب باعث شد که بودجههای تحقیقاتی مربوط به شبکههای عصبی در کل دههی هفتاد و اوایل دههی هشتاد میلادی بهشدت کاهش یابد. البته در همین دوره کارهای محدودی انجام شد که مهمترین آنها، استفاده از روش پسانتشار خطا (error backpropagation) توسط آقای Paul Werbos برای آموزش پارامترهای موجود در لایههای مخفی شبکههای عصبی میباشد (این کار در تز دکترای ایشان در سال ۱۹۷۴ میلادی در دانشگاه هاروارد انجام پذیرفت).
در اواسط دههی ۸۰ میلادی، نمایش موفقیت الگوریتم پسانتشار خطا در یادگیری بازنمایی مناسب دادهها در لایههای مخفی شبکههای عصبی توسط دانشمندانی مانند Rumelhart، Hinton و Ronald Williams به خزان شبکههای عصبی پایان داد و حیاتی جدید در تحقیقات این حوزه را آغاز کرد. متأسفانه آقای رزنبلت نزدیک دو سال پس از انتشار کتاب Perceptrons در روز تولد ۴۳ سالگی خود در یک تصادف قایقرانی جان باخت و نتوانست شاهد پیشرفت شبکههای عصبی باشد. آقایان مینسکی و پاپارت هر دو در سال گذشتهی میلادی (۲۰۱۶) در سن ۸۸ سالگی درگذشتند.
حدود بیست سال تحقیقات روی شبکههای عصبی با فراز و نشیبهایی دنبال شد تا اینکه حدود ده سال پیش، موج جدیدی از موفقیتهای شبکههای عصبی به راه افتاد. موفقیتهای حاصل شده در این ده سال، حقیقتاً حیرتآور هستند. بهعنوان یک نمونه، در اواخر سال ۲۰۱۵ میلادی، ماشینهای مبتنی بر شبکههای عصبی توانستند در تشخیص اشیاء موجود در تصاویر طبیعی، دقتی بالاتر از دقت انسان بدست آورند (در مجموعهای بزرگ از تصاویر از ۱۰۰۰ دستهی موجود). حیرتآور بودن این دستاوردها حتی برای محققین تراز اول هوش مصنوعی نیز قابل کتمان نیست. بهعنوان مثال، خانم Daphne Koller در رخداد google IO 2017 بیان میکنند که ما پنج سال پیش تخمین میزدیم که ۲۰ سال دیگر در جایی باشیم که اکنون هستیم (بطور خاص در مسئلهی تشخیص اشیاء در تصاویر). البته این موفقیتها محدود به مسائل مربوط به بینایی ماشین نبوده و در کاربردهای متنوع دیگر از جمله تشخیص صحبت، پردازش زبانهای طبیعی، اتومبیلهای خودران، کاربردهای پزشکی، کاربردهای هنری و غیره نیز خود را نشان داده است.
راجع به دلایل موفقیت ده سال اخیر شبکههای عصبی (بطور خاص، شبکههای عصبی عمیق) بحثهای فراوانی مطرح میشود که بیان دقیق آنها نیازمند مطلبی مجزا میباشد.
👍2
خبر: برای اولین بار، سایت kaggle میزبان مسابقهی ILSVRC مربوط به ImageNet میباشد. البته هنوز امکان ارسال کد وجود ندارد، ولی دادهها در سایت بارگذاری شدهاند و همچنین، امکان پرسش و پاسخ در انجمن وجود دارد. توجه کنید که بدلیل محدودیتهایی که برای آیپیهای ایران اِعمال میشود، ممکن است لازم باشد با آیپی غیر ایران به سایت kaggle دسترسی پیدا کنید.
پ.ن. این مسابقه، همان رقابتی است که در سال ۲۰۱۲ با شبکهی الکسنت باعث جلب توجه به شبکههای عصبی کانولوشنی گردید.
https://www.kaggle.com/c/imagenet-object-localization-challenge/
پ.ن. این مسابقه، همان رقابتی است که در سال ۲۰۱۲ با شبکهی الکسنت باعث جلب توجه به شبکههای عصبی کانولوشنی گردید.
https://www.kaggle.com/c/imagenet-object-localization-challenge/
Kaggle
ImageNet Object Localization Challenge
Identify the objects in images
جملهای در اهمیت شرکت در رقابتهای Kaggle:
آقای جرمی هاوارد (Jeremy Howard) از مهندسین بهنام حوزهی یادگیری ماشین و علوم دادهها هستند. عمدهی شهرت ایشان در بین ایرانیان احتمالاً بدلیل ارائهی دروس یادگیری عمیق عملی (practical deep learning) است. در جلسهی هفتم این دوره، ایشان جملهای راجع به رقابتهای موجود در سایت Kaggle ذکر میکنند و بیان میکنند که “من بسیار بیشتر از هرکار دیگری با شرکت در این رقابتها آموخته کسب کردهام”. البته با بررسی جملات قبلی ایشان، ظاهراً تأکید ایشان بیشتر بر رقابتهای فعال و جدید موجود در kaggle است نه رقابتهای قدیمی. اصل جملهی ایشان:
I hope some of you will consider seriously investing — like putting an hour a day in to a competition. I learn far more doing that than anything else I have ever done.
آقای جرمی هاوارد (Jeremy Howard) از مهندسین بهنام حوزهی یادگیری ماشین و علوم دادهها هستند. عمدهی شهرت ایشان در بین ایرانیان احتمالاً بدلیل ارائهی دروس یادگیری عمیق عملی (practical deep learning) است. در جلسهی هفتم این دوره، ایشان جملهای راجع به رقابتهای موجود در سایت Kaggle ذکر میکنند و بیان میکنند که “من بسیار بیشتر از هرکار دیگری با شرکت در این رقابتها آموخته کسب کردهام”. البته با بررسی جملات قبلی ایشان، ظاهراً تأکید ایشان بیشتر بر رقابتهای فعال و جدید موجود در kaggle است نه رقابتهای قدیمی. اصل جملهی ایشان:
I hope some of you will consider seriously investing — like putting an hour a day in to a competition. I learn far more doing that than anything else I have ever done.
یکی از پایگاه دادههای ساده ولی پراستفاده در یادگیری ماشین، MNIST است که شامل ۶۰۰۰۰ نمونهی آموزشی و ۱۰۰۰۰ نمونهی آزمایشی از تصاویر ارقام دستنویس با ابعاد ۲۸ در ۲۸ میباشد. در چند روز گذشته یک پایگاه جدید با همان فرمت ولی برای تشخیص ده نوع لباس و کیف و کفش با نام Fashion-MNIST معرفی شده است که در لینک زیر قابل دریافت میباشد:
https://github.com/zalandoresearch/fashion-mnist
این پایگاه توسط آقای Yann LeCun (از طراحان اصلی MNIST و مدیر فعلی بخش تحقیقات هوش مصنوعی فیسبوک) در صفحهی ایشان نیز معرفی شده است👇
https://github.com/zalandoresearch/fashion-mnist
این پایگاه توسط آقای Yann LeCun (از طراحان اصلی MNIST و مدیر فعلی بخش تحقیقات هوش مصنوعی فیسبوک) در صفحهی ایشان نیز معرفی شده است👇
GitHub
GitHub - zalandoresearch/fashion-mnist: A MNIST-like fashion product database. Benchmark
A MNIST-like fashion product database. Benchmark :point_down: - GitHub - zalandoresearch/fashion-mnist: A MNIST-like fashion product database. Benchmark
👍1
جهت اطلاع: امروز ۱۳ سپتامبر، ۲۵۶ امین روز سال میلادی بعنوان روز برنامهنویس در روسیه شناخته میشود. ۲۵۶ تعداد اعداد متمایزی است که میتوان در یک بایت نمایش داد. همچنین این عدد بزرگترین توان دو کوچکتر از تعداد روزهای سال است.
این نمودار (به همراه توضیحات ارائه شده در منبع زیر) نشان میدهد که عمده نیروی محرکهی پایتون در سالهای اخیر، علوم دادهها بوده است.
https://stackoverflow.blog/2017/09/14/python-growing-quickly/?cb=1
https://stackoverflow.blog/2017/09/14/python-growing-quickly/?cb=1
بیش از صد سوالی که در مصاحبهی شغلی مربوط به علوم دادهها در شرکتهای بزرگ مثل گوگل، مایکروسافت، اپل و غیره پرسیده شدهاند:
http://www.learndatasci.com/data-science-interview-questions/?utm_source=mybridge&utm_medium=web&utm_campaign=read_more
http://www.learndatasci.com/data-science-interview-questions/?utm_source=mybridge&utm_medium=web&utm_campaign=read_more
هجده ویدئوی آموزشی مناسب برای یادگیری تنسورفلو (چارچوب پردازش عددی و یادگیری ماشین توسعه داده شده توسط گوگل):
https://www.youtube.com/watch?v=wuo4JdG3SvU&list=PL9Hr9sNUjfsmEu1ZniY0XpHSzl5uihcXZ
https://www.youtube.com/watch?v=wuo4JdG3SvU&list=PL9Hr9sNUjfsmEu1ZniY0XpHSzl5uihcXZ
YouTube
TensorFlow Tutorial #01 Simple Linear Model
How to make a simple model in TensorFlow for recognizing handwritten digits from the MNIST data-set.
This tutorial has been updated to work with TensorFlow 2.1 and possibly later versions using "v.1 compatibility mode".
https://github.com/Hvass-Labs/TensorFlow…
This tutorial has been updated to work with TensorFlow 2.1 and possibly later versions using "v.1 compatibility mode".
https://github.com/Hvass-Labs/TensorFlow…
مجموعهای از اصطلاحات مربوط به یادگیری ماشین. بدلیل تحریم آیپیهای ایران در برخی از سرویسهای گوگل، با آیپی متفاوت برای دسترسی به لینک زیر استفاده نمایید:
https://developers.google.com/machine-learning/glossary
https://developers.google.com/machine-learning/glossary
Google for Developers
Machine Learning Glossary | Google for Developers
👍1
حدود چهار ماه قبل، سایت کگل که به یک میلیون کاربر رسیده بود، بخشی از تجربیات و اتفاقات بیش از هفت سال حیات خود را در قالب تصویر فوق به اشتراک گذاشت. یکی از نکات جالبی که به آن اشاره شده بود، موفقیت روش جنگل تصادفی بهعنوان پراستفادهترین روش در بین تیمهای برنده در رقابتها در فاصلهی سالهای ۲۰۱۰ تا ۲۰۱۱ بود. روش جنگل تصادفی یکی از روشهای ترکیب درختهای تصمیم است. اخیراً یکی دیگر از روشهای ترکیب با عنوان gradient boosting موفقیتهای قابل توجهی در رقابتهای کگل کسب کرده است و بسیاری از تیمهای برنده از این روش بهره بردهاند. بطور خاص، کتابخانهی XGBoost که پیادهسازی کارایی از این روش ارائه داده است، به وفور توسط شرکتکنندگان مورد استفاده قرار گرفته است. برای آشنایی مقدماتی با این روش، به آدرس زیر مراجعه کنید:
https://xgboost.readthedocs.io/en/latest/model.html
https://xgboost.readthedocs.io/en/latest/model.html
دوستان علاقهمند به مبحث شبکههای بیزی، به ارائهی زیر که در سمینار زمستانی دانشگاه صنعتی شریف در دیماه ۹۵ برگزار شده است، توجه کنند. این ارائه در دو بخش انجام شده است که در بخش اول (تا دقیقهی ۲۳) کلیاتی از شبکههای بیزی معرفی شده است و در بخش دوم، یکی از مقالات جدید این حوزه با موضوع "بکارگیری دانش انسانی در فرآیند یادگیری ساختار شبکههای بیزی" ارائه شده است.
https://www.youtube.com/watch?v=JTndcNGmAYw&t=1494s
اسلایدهای ارائه را هم میتوانید از طریق آدرس زیر دریافت نمایید:
http://wss.ce.sharif.edu/assets/slides/hossein-amirkhani.pdf
https://www.youtube.com/watch?v=JTndcNGmAYw&t=1494s
اسلایدهای ارائه را هم میتوانید از طریق آدرس زیر دریافت نمایید:
http://wss.ce.sharif.edu/assets/slides/hossein-amirkhani.pdf
YouTube
Exploiting Experts' Knowledge for Structure Learning of Bayesian Networks
بهترین نرمافزارهای متنباز مربوط به یادگیری ماشین سال ۲۰۱۷ به انتخاب InfoWorld:
Synaptic
Scikit-learn
Caffe2
H2O
PyTorch
CatBoost
XGBoost
GNU Octave
TensorFlow
Microsoft Cognitive Toolkit
Apache MXNet
Apple Core ML
منبع:
https://www.infoworld.com/article/3228224/machine-learning/bossie-awards-2017-the-best-machine-learning-tools.html
Synaptic
Scikit-learn
Caffe2
H2O
PyTorch
CatBoost
XGBoost
GNU Octave
TensorFlow
Microsoft Cognitive Toolkit
Apache MXNet
Apple Core ML
منبع:
https://www.infoworld.com/article/3228224/machine-learning/bossie-awards-2017-the-best-machine-learning-tools.html
InfoWorld
Best of open source: The best machine learning tools
InfoWorld picks the best open source software for machine learning and deep learning
معرفی مفاهیم یادگیری ماشین به بیان بسیار ساده، بطوریکه برای دانشآموزان نیز قابل درک باشد:
http://blog.stephenwolfram.com/2017/05/machine-learning-for-middle-schoolers/
http://blog.stephenwolfram.com/2017/05/machine-learning-for-middle-schoolers/
Stephenwolfram
Machine Learning for Middle Schoolers—Stephen Wolfram Writings
How machine learning works and real-world examples of where it can be used are highlighted in the new edition of Stephen Wolfram’s programming book.
https://www.youtube.com/playlist?list=PLievC1UeaSOD3EBaJaHstTKIXS51Sfjwo
لینک فوق شامل سی ویدئو راجع به آموزش یادگیری سریعتر و بهتر توسط خانم دکتر باربارا اوکلی استاد دانشگاه اوکلند میباشد. هر ویدئو معمولاً کمتر از ۱۰ دقیقه است.
پانوشت: این ویدئوها بدلیل اهمیت شناخت دقیقتر فرآیند یادگیری انسانی در کانال معرفی شدهاند و در آنها بحثی از یادگیری ماشین نمیشود. شناخت فرآیند یادگیری انسانی کمک میکند در هر زمینهای، بتوانیم بهتر از پتانسیل مغزمان استفاده نماییم.
لینک فوق شامل سی ویدئو راجع به آموزش یادگیری سریعتر و بهتر توسط خانم دکتر باربارا اوکلی استاد دانشگاه اوکلند میباشد. هر ویدئو معمولاً کمتر از ۱۰ دقیقه است.
پانوشت: این ویدئوها بدلیل اهمیت شناخت دقیقتر فرآیند یادگیری انسانی در کانال معرفی شدهاند و در آنها بحثی از یادگیری ماشین نمیشود. شناخت فرآیند یادگیری انسانی کمک میکند در هر زمینهای، بتوانیم بهتر از پتانسیل مغزمان استفاده نماییم.
YouTube
- YouTube
موفقیت دیگری برای شبکههای عصبی:
طی دو ماه اخیر، رقابتی در سایت کگل با عنوان Porto Seguro’s Safe Driver Prediction توسط یک شرکت بیمهی برزیلی با هدف پیشبینی اینکه آیا یک راننده در سال آینده برای گرفتن خسارت به بیمه مراجعه میکند یا نه برگزار شد. این رقابت از تاریخ ۲۹ سپتامبر (۷ مهر) لغایت ۳۰ نوامبر ۲۰۱۷ (۹ آذر ۱۳۹۶) برگزار شد و با استقبال قابل توجهی روبرو شد، بطوریکه ۶۰۶۲ نفر در قالب ۵۳۵۵ تیم در این رقابت شرکت کردند. از آنجاییکه جنس دادهی مورد استفاده در این رقابت از جنس دادههای جدولی بود، از ابتدا چنین به نظر رسید که شبکههای عصبی در این رقابت نمیتوانند موفق باشند و کسانی هم که از این رویکرد برای حل مسئله استفاده میکردند، موفقیت قابل توجهی را گزارش نکردند. درعوض، روشهای مبتنی بر بوستینگ درختهای تصمیم (مانند XGBoost و LightGBM) بسیار مورد توجه قرار گرفتند و تا پایان رقابت تصور میشد که مناسبترین روش برای حل چنین مسائلی، استفاده از این ابزارها میباشد. با پایان یافتن رقابت و مشخص شدن جایگاه افراد مختلف شرکتکننده، نفر اول رقابت در قالب پستی، رویکرد مورد استفادهی خود برای حل این مسئله را شرح داد که در لینک زیر میتوانید مطالعه کنید (با آیپی غیر ایران وارد کگل شوید!). رویکرد مورد استفادهی ایشان، استفاده از ۵ شبکهی عصبی Denoising Autoencoder در کنار یک مدل LightGBM بود. این نتیجه نشان داد که شبکههای عصبی میتوانند برای دادههای جدولی نیز مفید باشند و استفاده از قدرت یادگیری بدون ناظر روشهایی مانند Autoencoderها میتواند کماکان در استخراج ویژگیهای مفید در حل مسائل دادهکاوی، مؤثر باشد.
https://www.kaggle.com/c/porto-seguro-safe-driver-prediction/discussion/44629
طی دو ماه اخیر، رقابتی در سایت کگل با عنوان Porto Seguro’s Safe Driver Prediction توسط یک شرکت بیمهی برزیلی با هدف پیشبینی اینکه آیا یک راننده در سال آینده برای گرفتن خسارت به بیمه مراجعه میکند یا نه برگزار شد. این رقابت از تاریخ ۲۹ سپتامبر (۷ مهر) لغایت ۳۰ نوامبر ۲۰۱۷ (۹ آذر ۱۳۹۶) برگزار شد و با استقبال قابل توجهی روبرو شد، بطوریکه ۶۰۶۲ نفر در قالب ۵۳۵۵ تیم در این رقابت شرکت کردند. از آنجاییکه جنس دادهی مورد استفاده در این رقابت از جنس دادههای جدولی بود، از ابتدا چنین به نظر رسید که شبکههای عصبی در این رقابت نمیتوانند موفق باشند و کسانی هم که از این رویکرد برای حل مسئله استفاده میکردند، موفقیت قابل توجهی را گزارش نکردند. درعوض، روشهای مبتنی بر بوستینگ درختهای تصمیم (مانند XGBoost و LightGBM) بسیار مورد توجه قرار گرفتند و تا پایان رقابت تصور میشد که مناسبترین روش برای حل چنین مسائلی، استفاده از این ابزارها میباشد. با پایان یافتن رقابت و مشخص شدن جایگاه افراد مختلف شرکتکننده، نفر اول رقابت در قالب پستی، رویکرد مورد استفادهی خود برای حل این مسئله را شرح داد که در لینک زیر میتوانید مطالعه کنید (با آیپی غیر ایران وارد کگل شوید!). رویکرد مورد استفادهی ایشان، استفاده از ۵ شبکهی عصبی Denoising Autoencoder در کنار یک مدل LightGBM بود. این نتیجه نشان داد که شبکههای عصبی میتوانند برای دادههای جدولی نیز مفید باشند و استفاده از قدرت یادگیری بدون ناظر روشهایی مانند Autoencoderها میتواند کماکان در استخراج ویژگیهای مفید در حل مسائل دادهکاوی، مؤثر باشد.
https://www.kaggle.com/c/porto-seguro-safe-driver-prediction/discussion/44629
Kaggle
Porto Seguro’s Safe Driver Prediction
Predict if a driver will file an insurance claim next year.
ارائهای راجع به معرفی مختصر کتابخانههای مفید پایتون در علوم دادهها. این سخنرانی در همایش PyData در شهر ورشو در اکتبر ۲۰۱۷ ایراد شده است و به دوستانی که قصد آشنایی مختصر با مهمترین کتابخانههای پایتون مربوط به علوم دادهها و یادگیری ماشین را دارند، توصیه میشود:
https://www.youtube.com/watch?v=EBgUiuFXE3E
https://www.youtube.com/watch?v=EBgUiuFXE3E
YouTube
The Python ecosystem for Data Science: A guided tour - Christian Staudt
Description
Pythonistas have access to an extensive collection of tools for data analysis. The space of tools is best understood as an ecosystem: Libraries build upon each other, and a good library fills an ecological niche by doing certain jobs well. This…
Pythonistas have access to an extensive collection of tools for data analysis. The space of tools is best understood as an ecosystem: Libraries build upon each other, and a good library fills an ecological niche by doing certain jobs well. This…