BigData
3.31K subscribers
754 photos
89 videos
3 files
835 links
Data Science : Big Data : Machine Learning : Deep Learning. По всем вопросам @evgenycarter
加入频道
Многослойная нормализация: новый метод улучшения эффективности нейронных сетей

https://neurohive.io/ru/novosti/mnogoslojnaya-normalizaciya-novyj-metod-uluchsheniya-effektivnosti-nejronnyh-setej/

En: https://www.frontiersin.org/articles/10.3389/fnins.2021.626277/full

👉 @bigdata_1
👍1
Powerful Exploratory Data Analysis in just two lines of code

https://www.kdnuggets.com/2021/02/powerful-exploratory-data-analysis-sweetviz.html

👉 @bigdata_1
👍1
CSTR: A Classification Perspective on Scene Text Recognition

Github: https://github.com/Media-Smart/vedastr

Paper: https://arxiv.org/abs/2102.10884v1

👉 @bigdata_1
👍2
Zharikov2017Presentation.pdf
3 MB
Шпаргалка по всем сетям, их
классификация и строгое описание


Жариков Илья Николаевич
Московский физико-технический институт
Факультет управления и прикладной математики
Кафедра интеллектуальных систем

👉 @bigdata_1
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
📷 NeRF Meta Learning With PyTorch

Given a single input view, meta-initialized NeRF can generate a 360-degree video.

Github: https://github.com/sanowar-raihan/nerf-meta

Paper: https://arxiv.org/abs/2012.02189

Original Project Page: https://www.matthewtancik.com/learnit

Official JAX Implementation: https://github.com/tancik/learnit

👉 @bigdata_1
👍1
A Relational Tsetlin Machine with Applications to Natural Language Understanding

Github: https://github.com/cair/pyTsetlinMachine

Paper: https://arxiv.org/abs/2102.10952v1

👉 @bigdata_1
👍1
Font Style that Fits an Image -- Font Generation Based on Image Context

Github: https://github.com/Taylister/FontFits

Paper: https://arxiv.org/abs/2105.08879v1

Dataset creation: https://github.com/Taylister/TGNet-Datagen

👉 @bigdata_1
👍1
👍1
🔥 Awesome list of datasets in 100+ categories
44 zettabytes of data

https://www.kdnuggets.com/2021/05/awesome-list-datasets.html

👉 @bigdata_1
👍2
👍2
NeuroKit2: A Python toolbox for neurophysiological signal processing

A user-friendly package providing easy access to advanced biosignal processing routines.

Github: https://github.com/neuropsychology/NeuroKit

Paper: https://link.springer.com/article/10.3758/s13428-020-01516-y

Docs: https://neurokit2.readthedocs.io/en/latest/installation.html

👉 @bigdata_1
Это приглашение на «быстрое свидание» с работой мечты в команде Сбера.

One Day Offer — самый короткий путь до оффера. Пройти собеседование и получить ответ в тот же день можно 16 и 17 июля по двум вакансиям: Data Engineer в ИТ-команду «Комплаенс» и Java Developer в ИТ-подразделение «Сеть продаж».

Как это работает?

Шаг 1. 16 июля или 17 июля (в зависимости от вакансии) подключитесь к онлайн-интервью.
Шаг 2. Получите предложение о работе, о которой мечтали, в тот же день.
Шаг 3. А дальше — вместе со своей командой разрабатывайте крутые и важные продукты Сбера.

Прочитать подробнее о вакансиях и отправить заявку на участие в One Day Offer можно здесь.
PracticalStatisticsforDataScientists50EssentialConceptsUsingRan.pdf
16 MB
Practical Statistics for Data Scientists

Practical Statistics for Data Scientists: 50+ Essential Concepts Using R and Python
Peter Bruce, Andrew Bruce, Peter Gedeck (2020)

Statistical methods are a key part of data science, yet few data scientists have formal statistical training. Courses and books on basic statistics rarely cover the topic from a data science perspective. The second edition of this popular guide adds comprehensive examples in Python, provides practical guidance on applying statistical methods to data science, tells you how to avoid their misuse, and gives you advice on what's important and what's not.

👉 @bigdata_1
👍3
GPT-2 в картинках (визуализация языковых моделей Трансформера)

В 2019 году мы стали свидетелями блистательного использования машинного обучения. Модель GPT-2 от OpenAI продемонстрировала впечатляющую способность писать связные и эмоциональные тексты, превосходящие наши представления о том, что могут генерировать современные языковые модели. GPT-2 не является какой-то особенно новой архитектурой – она очень напоминает Трансформер-Декодер (decoder-only Transformer). Отличие GPT-2 в том, что это поистине громадная языковая модель на основе Трансформера, обученная на внушительном наборе данных. В этой статье мы посмотрим на архитектуру модели, позволяющую добиться таких результатов: подробно рассмотрим слой внутреннего внимания (self-attention layer) и применение декодирующего Трансформера для задач, выходящих за рамки языкового моделирования.

👉 @bigdata_1
👍2
AI-Neural-Networks.pdf
7.7 MB
Шпаргалка по AI, Neural Networks, Machine Learning, Deep Learning и Big Data

👉 @bigdata_1
👍3