Всем привет, друзья!
Пару дней назад выпустили новую статью на Habr про BERT и его товарищей❤️
Материал в первую очередь рассчитан для новичков, так что если давно хотели узнать…
🐈 как устроен механизм внимания без математики, а на примерах;
🐈 в чём особенности BERT, чем он так хорош и для каких задач подходит;
🐈 какие у него разновидности;
- время настало😊
И держите практический шаблон в colab с использованием предобученного DistilBert для решения задачи классификациидвумя способами 😎
С первым днём зимы!☃️
#nlp@data_easy
Пару дней назад выпустили новую статью на Habr про BERT и его товарищей
Материал в первую очередь рассчитан для новичков, так что если давно хотели узнать…
- время настало😊
И держите практический шаблон в colab с использованием предобученного DistilBert для решения задачи классификации
С первым днём зимы!
#nlp@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Модели BERT для машинного обучения: гайд для начинающих
BERT (Bidirectional Encoder Representations from Transformers) — это одна из ключевых моделей обработки естественного языка (NLP), построенная на архитектуре трансформера. Эксперт: Мария Жарова Data...
🔥12❤10🐳2🤔1
Чек-лист_собеседование_DS.pdf
72.2 KB
Привет, дорогие подписчики!
Поздравляю с Новым годом! 🎉 Пусть он принесет вдохновение, множество новых возможностей и ярких свершений✨ Пусть каждый день будет наполнен теплом, радостью, а маленькие шаги ведут к большим победам!😊
Чтобы этот пост был не только праздничным, но и полезным, держите небольшой подарок: чек-лист вопросов с собеседований по Data Science📋
Подобное может встречаться как на первичном звонке с HR, так и на полноценном техническом собеседовании, где могут попросить развернутые объяснения ключевых тем🤪
Всем успехов в карьере и уверенности в своих силах в 2025 году! 🎉
#карьера@data_easy
Поздравляю с Новым годом! 🎉 Пусть он принесет вдохновение, множество новых возможностей и ярких свершений✨ Пусть каждый день будет наполнен теплом, радостью, а маленькие шаги ведут к большим победам!😊
Чтобы этот пост был не только праздничным, но и полезным, держите небольшой подарок: чек-лист вопросов с собеседований по Data Science
Подобное может встречаться как на первичном звонке с HR, так и на полноценном техническом собеседовании, где могут попросить развернутые объяснения ключевых тем🤪
Всем успехов в карьере и уверенности в своих силах в 2025 году! 🎉
#карьера@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
🎄18🔥14❤9🎉5
Всем привет! 👋
Сегодня расскажу о магическом способе дообучить большие языковые модели (LLM), даже если у вас нет сервера с мощными видеокартами. Этот метод называетсяадаптеры.
Большие языковые модели вроде GPT или BERT уже натренированы на огромных объёмах текстов, но, разумеется, часто их необходимо "подстроить" под конкретные задачи. Например, представьте универсального переводчика, который знает 100 языков, но иногда путается в редких диалектах. Чтобы он стал идеален, ему потребуется донастройка.
🐾 Можно использовать классическое дообучение последних слоёв, однако этот подход часто ограничивает адаптацию. Он использует "универсальные" признаки из начала модели, которые могут быть недостаточно информативны для вашей специфической задачи.
А изменение всех весов, конечно, крайне дорогое для LLM с миллиардами параметров.
🙏 Адаптеры — это маленькие модули, которые вставляются между слоями уже обученной нейросети. Именно они обучаются на новой задаче, при этом исходные слои модели остаются неизменными (замороженными).
Если хотите попробовать, вот несколько инструментов:
😶 Hugging Face PEFT (Parameter-Efficient Fine-Tuning) — библиотека для адаптеров, LoRA и других методов.
🔗 ссылка на документацию
🔗 папка с примерами из официального репозитория
😶 AdapterHub — репозиторий готовых адаптеров для разных задач.
🔗 ссылка на страничку официального сайта
🔗 документация с примерами
Лёгкой рабочей недели!😘
#nlp@data_easy
Сегодня расскажу о магическом способе дообучить большие языковые модели (LLM), даже если у вас нет сервера с мощными видеокартами. Этот метод называется
Большие языковые модели вроде GPT или BERT уже натренированы на огромных объёмах текстов, но, разумеется, часто их необходимо "подстроить" под конкретные задачи. Например, представьте универсального переводчика, который знает 100 языков, но иногда путается в редких диалектах. Чтобы он стал идеален, ему потребуется донастройка.
А изменение всех весов, конечно, крайне дорогое для LLM с миллиардами параметров.
Если хотите попробовать, вот несколько инструментов:
Лёгкой рабочей недели!
#nlp@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22❤9👍9
Привет, друзья!
🎯 Как понять, кто вы — джун, мидл или сеньор?А может быть, "мидл+" или "мидл-"😁
Оценка своей роли в команде — важный шаг для профессионального роста и понимания, куда двигаться дальше. Но границы между грейдами часто размыты, а названия ролей в разных компаниях могут означать совершенно разные вещи. Например, в одной бизнес-аналитик — это человек, который анализирует данные и строит диаграммы, а в другой — это фактически продукт-менеджер, управляющий стратегией продукта🤔
📊 Большие компании стараются разрабатывать понятные критерии для грейдов сотрудников. У нас, пожалуй, наиболее распространён playbook от Avito, в котором подробно расписаны навыки и ожидания от IT-специалистов на разных этапах их карьеры. Там вы найдёте градацию по:
- технической экспертизе,
- взаимодействию с командой,
- уровню влияния на развитие продукта.
🔗 Ссылка на репозиторий со всеми материалами: github.com/avito-tech/playbook
Пролистав этот документ, можно определить:
- Какие навыки необходимо развивать, чтобы перейти на следующий уровень?
- Соответствуют ли текущие задачи вашему грейду?
- Не занижены или, наоборот, завышены ли ожидания от вашей роли?
Успехов в самоисследовании!😎
#карьера@data_easy
🎯 Как понять, кто вы — джун, мидл или сеньор?
Оценка своей роли в команде — важный шаг для профессионального роста и понимания, куда двигаться дальше. Но границы между грейдами часто размыты, а названия ролей в разных компаниях могут означать совершенно разные вещи. Например, в одной бизнес-аналитик — это человек, который анализирует данные и строит диаграммы, а в другой — это фактически продукт-менеджер, управляющий стратегией продукта
- технической экспертизе,
- взаимодействию с командой,
- уровню влияния на развитие продукта.
Пролистав этот документ, можно определить:
- Какие навыки необходимо развивать, чтобы перейти на следующий уровень?
- Соответствуют ли текущие задачи вашему грейду?
- Не занижены или, наоборот, завышены ли ожидания от вашей роли?
Успехов в самоисследовании!
#карьера@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - avito-tech/playbook: AvitoTech team playbook
AvitoTech team playbook. Contribute to avito-tech/playbook development by creating an account on GitHub.
🔥21👍7❤5👀1
Привет, друзья!
Поздравляю всех причастных с Днём студента!🤩
Держите небольшую подборку бесплатных курсов, которые помогут в изучении DS - как для начинающих, так и для продолжающих🤓
📚 Для совсем новичков открытый курс по Python на Stepic.
С него можно начинать изучение программирования в принципе, подойдёт не только для будущих дата-саентистов, но и для разработчиков.
➡️ Ссылка на Stepik и на дублирующий плейлист на youtube.
📚 Для погружения в классический ML можно начать с курса лекций и семинаров от МФТИ.
➡️ Ссылка на плейлист youtube.
📚 Для тех, кто уже знаком с основами ML, есть продолжение предыдущего курса от МФТИ, который знакомит с DL.
➡️ Ссылка на плейлист youtube.
📚 Также в качестве дополнения можно ознакомиться с материалами годового курса от DeepLearning School.
➡️ Здесь найдёте материалы базового потока, а здесь - продвинутого.
📚 Для погружения в NLP можете посмотреть материалы курса с ODS.
➡️ Ссылка на курс (нужна регистрация).
📚 Для любителей рекомендательных систем есть два мини курса, также с ODS.
➡️ Ссылка на первую часть и на вторую.
📚 По CV хороший курс на Hugging Face. Единственный возможный минус - он на английском.
➡️ Ссылка на материалы.
Успехов в учёбе и хороших выходных!🍀
#python@data_easy
#classic_ml@data_easy
#cv@data_easy
#nlp@data_easy
Поздравляю всех причастных с Днём студента!
Держите небольшую подборку бесплатных курсов, которые помогут в изучении DS - как для начинающих, так и для продолжающих
С него можно начинать изучение программирования в принципе, подойдёт не только для будущих дата-саентистов, но и для разработчиков.
Успехов в учёбе и хороших выходных!
#python@data_easy
#classic_ml@data_easy
#cv@data_easy
#nlp@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
Stepik: online education
Инди-курс программирования на Python
Инди-курс программирования на Python — проверенный временем пошаговый курс для тех, кто хочет освоить разработку с нуля. Уже более 5 лет курс помогает ученикам легко и эффективно изучать python. Мы научим вас создавать свои первые программы, работать с числами…
🔥27❤14👍5
Всем привет!
В свете последних потрясающих новостей про LLM хочу поделиться ещё одним любопытным исследованием🙂
Недавний релиз DeepSeek R1 показал, что обучение мощных LLM может стоить значительно дешевле, чем у лидеров рынка. Теперь исследователи из Стэнфорда решили проверить, насколько быстро и дёшево можно дообучить существующую открытую модель, чтобы она конкурировала с проприетарными решениями.
💎 Они взяли Qwen2.5-32B-Instruct и применили knowledge distillation — способ передачи знаний от более мощной модели (учителя) к компактной модели (ученику). Ученик обучается воспроизводить ответы учителя, что позволяет достичь высокой производительности при меньших вычислительных затратах. В данном случае, модель-ученик обучалась на небольшом, но тщательно отобранном датасете из 1000 примеров, сгенерированных Gemini Thinking Experimental (кстати, можно скачать его с HuggingFace).
🫣 Итоги...
Получившаяся модель обошла o1-preview на 27% в тестах MATH и AIME24, сохранив компактность и эффективность.
Но главный результат — скорость и доступность: весь процесс обучения занял 26 минут на 16-ти GPU NVIDIA H100, что сравнимо со стоимостью запуска DeepSeek R1.
📖 Код работы опубликован на GitHub, а обученная модель доступна на Hugging Face.
Этот эксперимент подтверждает тренд на снижение стоимости и времени обучения LLM. Возможно, вскоре появятся всё более доступные «open-weight» решения, которые смогут конкурировать с закрытыми моделями крупнейших компаний😎
#nlp@data_easy
В свете последних потрясающих новостей про LLM хочу поделиться ещё одним любопытным исследованием
Недавний релиз DeepSeek R1 показал, что обучение мощных LLM может стоить значительно дешевле, чем у лидеров рынка. Теперь исследователи из Стэнфорда решили проверить, насколько быстро и дёшево можно дообучить существующую открытую модель, чтобы она конкурировала с проприетарными решениями.
Получившаяся модель обошла o1-preview на 27% в тестах MATH и AIME24, сохранив компактность и эффективность.
Но главный результат — скорость и доступность: весь процесс обучения занял 26 минут на 16-ти GPU NVIDIA H100, что сравнимо со стоимостью запуска DeepSeek R1.
Этот эксперимент подтверждает тренд на снижение стоимости и времени обучения LLM. Возможно, вскоре появятся всё более доступные «open-weight» решения, которые смогут конкурировать с закрытыми моделями крупнейших компаний
#nlp@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22🔥5👍4
Всем привет!
Сегодня снова про LLM🌿
Для тех, кто ещё не посмотрел лекцию Андрея Карпаты Deep Dive into LLMs like ChatGPT, держите небольшой обзор💜
В 3.5-часовом видео он подробно объясняет, из чего состоят большие языковые модели и как их обучают, рассказывает про их частые проблемы и, конечно, про DeepSeek😊
Ещё из интересного...
📋 Глупые ошибки, которые, на самом деле, закономерны:
🔵 LLM не могут правильно посчитать количество букв в слове из-за особенностей токенизации;
🔵 у LLM бывают беды с определением следования дат из-за религиозных текстов, в которых их порядок тоже перепутан.
📋 Откуда берутся галлюцинации и как с ними бороться:
🔵 раньше модели не обучались говорить «я не знаю», теперь же с этим борются через специальный этап дообучения с учителем (SFT);
🔵 ещё вариант — интегрировать их с поиском, чтобы LLM могла гуглить перед ответом.
📋 Чем интересен DeepSeek R1 и какие источники Карпаты использует, чтобы следить за LLM-прогрессом (lmarena, AINews, Twitter).
➡️ Ссылка на оригинал лекции: тык
PS: Андрей Карпаты - ex-директор по ИИ в Tesla и сооснователь OpenAI.
С праздником, любимые подписчики!💜
#nlp@data_easy
Сегодня снова про LLM
Для тех, кто ещё не посмотрел лекцию Андрея Карпаты Deep Dive into LLMs like ChatGPT, держите небольшой обзор
В 3.5-часовом видео он подробно объясняет, из чего состоят большие языковые модели и как их обучают, рассказывает про их частые проблемы и, конечно, про DeepSeek
Ещё из интересного...
PS: Андрей Карпаты - ex-директор по ИИ в Tesla и сооснователь OpenAI.
С праздником, любимые подписчики!
#nlp@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Deep Dive into LLMs like ChatGPT
This is a general audience deep dive into the Large Language Model (LLM) AI technology that powers ChatGPT and related products. It is covers the full training stack of how the models are developed, along with mental models of how to think about their "psychology"…
🔥7❤6👍2
Привет, друзья!🦋
В последнее время часто говорят про спад в IT, сокращения и падение зарплат... Свежее исследование Habr-карьеры показывает обратное: ЗП IT-специалистов во втором полугодии 2024 года выросли на 19% по сравнению с предыдущим, медианная ЗП составила 180k (по всем IT-направлениям). В самой статье можете посмотреть детализацию по городам, направлениям и языкам программирования🐶 🐶
Насчёт количества IT-вакансий - в 2024 году их, действительно, стало меньше, чем в 2023: в среднем на 5%.Но примечательно, что в сфере ИИ число предложений, наоборот, увеличилось на 43% 💃
А на скринах держите сводки средних ЗП в разрезе грейдов для профессий "Data Scientist" и "ML-разработчик", данные с той же Habr-карьеры💲
PS: кто ещё там не зарегистрировался - за указание своей ЗП можно получить доступ к таким же графикам по всем направлениям в IT😊
PPS: рост ЗП покрыл официальную инфляцию😀
#карьера@data_easy
В последнее время часто говорят про спад в IT, сокращения и падение зарплат... Свежее исследование Habr-карьеры показывает обратное: ЗП IT-специалистов во втором полугодии 2024 года выросли на 19% по сравнению с предыдущим, медианная ЗП составила 180k (по всем IT-направлениям). В самой статье можете посмотреть детализацию по городам, направлениям и языкам программирования
Насчёт количества IT-вакансий - в 2024 году их, действительно, стало меньше, чем в 2023: в среднем на 5%.
А на скринах держите сводки средних ЗП в разрезе грейдов для профессий "Data Scientist" и "ML-разработчик", данные с той же Habr-карьеры
PS: кто ещё там не зарегистрировался - за указание своей ЗП можно получить доступ к таким же графикам по всем направлениям в IT
PPS: рост ЗП покрыл официальную инфляцию
#карьера@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥10👍7✍4🔥3
Привет, друзья!
Добавила новое видео на YouTube📺 Гид по нейросетям в DS: как выбрать модель для CV,NLP, аудио✨
В нём краткая инструкция для новичков по выбору подходящей модели для различных задач в CV, NLP и обработке аудио😌
- с чего начать?
- какие базовые модели попробовать?
- где искать SOTA-решения?(конечно, Papers with Code😁)
Буду рада вашей поддержке! ❤️ Рекомендательные системы Ютуба лучше подхватывают активные видео, лайк, комментарий и просто просмотр очень помогут!🥰
И, конечно, пишите, что хотели бы разобрать в следующих выпусках🤪
С первым весенним днём!🌸
UPD: также доступно на rutube
#cv@data_easy
#nlp@data_easy
#аудио@data_easy
Добавила новое видео на YouTube
В нём краткая инструкция для новичков по выбору подходящей модели для различных задач в CV, NLP и обработке аудио
- с чего начать?
- какие базовые модели попробовать?
- где искать SOTA-решения?
Буду рада вашей поддержке! ❤️ Рекомендательные системы Ютуба лучше подхватывают активные видео, лайк, комментарий и просто просмотр очень помогут!
И, конечно, пишите, что хотели бы разобрать в следующих выпусках
С первым весенним днём!🌸
UPD: также доступно на rutube
#cv@data_easy
#nlp@data_easy
#аудио@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥9👍4🤩3
Добавила хэштеги ко всем актуальным постам канала
#python@data_easy
#математика@data_easy
#аналитика@data_easy
#classic_ml@data_easy
#dl@data_easy
#cv@data_easy
#nlp@data_easy
#аудио@data_easy
#mlops@data_easy
#лайфхаки@data_easy
#карьера@data_easy
#полезный_ии@data_easy
ситуацию!
#мем@data_easy
https://yangx.top/+v1fdmoHV3JwyYTJi
https://youtube.com/@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
EasyData-chat
Чат канала EasyData❤️
❤8🔥5👍1
Вечер пятницы - не для серьёзных постов😎
Выполняем план по приумножению #мем@data_easy
Делитесь своими шутками в комментариях😔
Выполняем план по приумножению #мем@data_easy
Делитесь своими шутками в комментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣11😁4👍3
Привет, друзья!
На канале вышло новое видео с наглядным объяснением основ градиентного спуска↗️ 📉
Буду рада вашим комментариям✨
➡️ Ссылка на youtube
➡️ Ссылка на rutube
Продуктивной предстоящей недели!😎
#математика@data_easy
На канале вышло новое видео с наглядным объяснением основ градиентного спуска
Буду рада вашим комментариям
Продуктивной предстоящей недели!
#математика@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Градиентный спуск – основа машинного обучения | Простое объяснение без сложных формул
Что такое градиентный спуск и почему он играет ключевую роль в машинном обучении? В этом видео просто и наглядно объясняется, как происходит обучение моделей и что в этом процессе делает градиентный спуск. Всё доступно, без сложных формул – только суть, картинки…
🔥15❤9👍4
Привет, друзья!🌞
Сегодня обсудим тему хранения данных🗃 При работе с ML или аналитикой часто приходится сохранять промежуточные и конечные результаты в виде файлов - от датасетов до чекпоинтов моделей. И обычные базы данных, а тем более локальные диски и файловые системы быстро становятся неудобными... В таких случаях отлично подходит Amazon S3 (Simple Storage Service) - надёжное облачное хранилище, которое стало стандартом в индустрии.
📂 Что такое S3 и как оно устроено?
S3 - это объектное хранилище, в котором данные организуются не в файлы и папки, а в бакеты (buckets) - контейнеры, внутри которых хранятся объекты (файлы любого типа). У каждого объекта есть свой уникальный ключ (путь, по нему можно получить доступ к файлу) и метаданные.
📂 Главные принципы работы с S3:
➡️ Бакеты - это аналог корневых папок, в них лежат файлы (объекты).
➡️ Объекты - это загружаемые файлы (CSV, JSON, изображения, модели и т. д.), доступные по URL.
➡️ Политики доступа - гибко настраиваются, можно делать файлы публичными или закрытыми.
➡️ Версионирование - можно хранить несколько версий одного файла.
➡️ Архивы - для экономии места можно настроить автоматическое перемещение старых данных в архивное хранилище Glacier.
📂 Как развернуть S3 у себя?
➡️ Можно воспользоваться облачной версией (AWS S3), для этого:
- зарегистрируйтесь на AWS
- в консоли AWS создайте новый S3-бакет
- настройте права доступа (приватно или публично)
- загружайте файлы и работайте с ними через API или веб-интерфейс
Первые 5 ГБ хранилища бесплатны, дальше - зависит от объёма (около $0.023 за 1 ГБ).
➡️ Или полностью бесплатные аналоги S3 для локальной работы - MinIO и LocalStack, можно запустить их через Docker.
К слову, S3 легко интегрируется с Python, Spark, MLflow и другими инструментами для анализа данных и машинного обучения.
Хорошего вечера! 🚀
#mlops@data_easy
Сегодня обсудим тему хранения данных🗃 При работе с ML или аналитикой часто приходится сохранять промежуточные и конечные результаты в виде файлов - от датасетов до чекпоинтов моделей. И обычные базы данных, а тем более локальные диски и файловые системы быстро становятся неудобными... В таких случаях отлично подходит Amazon S3 (Simple Storage Service) - надёжное облачное хранилище, которое стало стандартом в индустрии.
S3 - это объектное хранилище, в котором данные организуются не в файлы и папки, а в бакеты (buckets) - контейнеры, внутри которых хранятся объекты (файлы любого типа). У каждого объекта есть свой уникальный ключ (путь, по нему можно получить доступ к файлу) и метаданные.
- зарегистрируйтесь на AWS
- в консоли AWS создайте новый S3-бакет
- настройте права доступа (приватно или публично)
- загружайте файлы и работайте с ними через API или веб-интерфейс
К слову, S3 легко интегрируется с Python, Spark, MLflow и другими инструментами для анализа данных и машинного обучения.
Хорошего вечера! 🚀
#mlops@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16❤4👍1👨💻1
boto3_examples.py
2 KB
Привет, друзья!
Долго об этом думала и решилась — пора менять вектор развития. Сколько можно настраивать гиперпараметры, бороться с переобучением, разгребать логи и объяснять, что "предсказание — это не стопроцентная гарантия!" Хочется чего-то более осязаемого…
С сегодняшнего дня я становлюсь фермером. Буду выращивать клубнику, бороться с вредителями и обучать нейросети отличать спелые ягоды от неспелых(ладно, все-таки Data Science совсем бросить не получится😁) .
В продолжение предыдущего поста держите небольшую шпаргалку по библиотеке boto3 для работы с S3 на Python. Составляла для себя, чтобы быстрее обрабатывать данные об урожае — возможно, пригодится и вам🔆
🔗Ссылка на официальную документацию тут.
Солнечного дня!🌅
#mlops@data_easy
Долго об этом думала и решилась — пора менять вектор развития. Сколько можно настраивать гиперпараметры, бороться с переобучением, разгребать логи и объяснять, что "предсказание — это не стопроцентная гарантия!" Хочется чего-то более осязаемого…
С сегодняшнего дня я становлюсь фермером. Буду выращивать клубнику, бороться с вредителями и обучать нейросети отличать спелые ягоды от неспелых
В продолжение предыдущего поста держите небольшую шпаргалку по библиотеке boto3 для работы с S3 на Python. Составляла для себя, чтобы быстрее обрабатывать данные об урожае — возможно, пригодится и вам
🔗Ссылка на официальную документацию тут.
Солнечного дня!🌅
#mlops@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21🤣10👍5❤4🤔3
Привет, друзья!
Конечно, предыдущий пост был шуткой😄
Я снова в деле и сегодня поделюсь подборкой полезных приёмов в Pandas, которые помогут сэкономить время при написании кода, а некоторые ещё и ускорят его🚀
➡️ Для удобства все материалы смотрите в статье.
Всем красивого кода и с Праздником!🕊️
#лайфхаки@data_easy
#python@data_easy
#аналитика@data_easy
Конечно, предыдущий пост был шуткой😄
Я снова в деле и сегодня поделюсь подборкой полезных приёмов в Pandas, которые помогут сэкономить время при написании кода, а некоторые ещё и ускорят его
Всем красивого кода и с Праздником!🕊️
#лайфхаки@data_easy
#python@data_easy
#аналитика@data_easy
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegraph
6 трюков в Pandas, которые сэкономят время
Когда только начинаешь работать с данными, кажется, что всё сводится к .groupby(), for-циклам и магическому df[df["col"] == "val"]. Но потом приходит понимание: эффективность — в деталях. Вот 6 трюков в Pandas, которые сэкономят вам часы рутины и сделают…
😍10❤8🔥7👍3