خب اومدم یکاری کردم که دیگه تو مواقع نصب مشکلاتم به حداقل برسه
یه ریپو زدم یسری کتابخونه کاربردی زدم تو requirements یه اسکریپت نصب نوشتم که کلا اتوماتیک همشو نصب کنه :/ عقده ای شدم اره 👀
شمام اکر کتابخونه خاصی مدنظرتون هست که تو فایل نبود اضافه کنید سیستم بعد نصب بترکه
Repo:
Github.com/AmirakbariSXL/Python-Libraries-Installation
اضافه کنید اکسپت کنم:)
#SXL
یه ریپو زدم یسری کتابخونه کاربردی زدم تو requirements یه اسکریپت نصب نوشتم که کلا اتوماتیک همشو نصب کنه :/ عقده ای شدم اره 👀
شمام اکر کتابخونه خاصی مدنظرتون هست که تو فایل نبود اضافه کنید سیستم بعد نصب بترکه
Repo:
Github.com/AmirakbariSXL/Python-Libraries-Installation
اضافه کنید اکسپت کنم:)
#SXL
GitHub
GitHub - AmirakbariSXL/Python-Libraries-Installation: A Python script that automatically installs some essential libraries for…
A Python script that automatically installs some essential libraries for various applications like data science, machine learning, web development, and more. Libraries are listed in a requirements....
⚡6
نحوه نصب #odoo رو تو سیستم های ubuntu,centos و windows به همراه ارور ها و چالش هایی که میتونه داشته باشه رو ریپازیتوری کردم تا به راحتی بتونید نصب کنید.
لینک مخزن:
Https://github.com/AmirakbariSXL/Odoo-Installation
#SXL
#ERP
#Odoo
لینک مخزن:
Https://github.com/AmirakbariSXL/Odoo-Installation
#SXL
#ERP
#Odoo
GitHub
GitHub - AmirakbariSXL/Odoo-Installation: Odoo 17 Installation Guide: This repository provides a step-by-step guide for installing…
Odoo 17 Installation Guide: This repository provides a step-by-step guide for installing Odoo 17 on Ubuntu 22.04, CentOS 8, and Windows. Features: Installation instructions for Odoo 17 on Linux (U...
👍5❤1
Pythonism
Navigating_the_Complex_Landscape_of_Forex_and_CFD_Markets_1735980194.pdf
سال 96 وقتی اولین بار وارد بازار های مالی شدم، درک و فهم و سواد مالی انچنانی نداشتم ولی باخودم برنامه ریزی کردم که بتونم به عنوان ابزار خلق سود به عنوان شغل دوم به قضیه نگاه کنم.
تا سال 98 در بورس ایران مشغول بودم که نتونستم با بورس ارتباط بگیرم و با روحیاتم سازگاری نداشت و این بود که من برای بار اول با دلار 12000 تومنی وارد دنیای فارکس شدم.
سرمایه و پول های زیادی بدست اوردم و از دست دادم و خیلی علاقمند شدم و از شدت علاقه خیلی دیپ شدم اواخر سال 99 شده بودم یکی که کارش شده معامله گری و تجارت.
اما پس از مدتی که چند تا کتاب خوندم و تجربیاتی را کسب کردم از سال1402 شدم کسی که مخالف شدید فارکس بود و هست و هرکس میگفت برم فارکس یا اسمش میومد میگفتم نه اگر ورود نکنی قطعا تو سودی!
حالا چرا همچین حرفیو میزدم و میزنم دلایلش اندازه یه کتاب بحث دارد.اما درحال حاضر خودم معاملاتی دارم و حساب های فعالی دارم که بعضی وقتا معامله میکنم و میخونم و عمده هزینه هامو از اونجا درمیارم و شاید هم بعضی وقتا عمده درامدم رو از دست بدم.
یه مقاله غیر اصولی در رابطه با فارکس و بینش ساختاری مارکت CFD به کمک چند کتاب و هوش مصنوعی اماده کردم که نسخه اول در نظر گرفتم و قصد دارم تا 4 نسخه ادامش بدهم.
بقیه داستان هم بماند برای بعد 👀
پ.ن: اگر غلط املایی، اشتباه تایپی و … دیدید فدای سرم باشه 👀🥂🍫
پ.ن۲: هرکیم خواست مخالفت کنه با حرفم همینجا قادر به بحث هستم ولی هرکی تعصبی چیزی بنویسه بلاک میکنم👀🫑🥂
#SXL
تا سال 98 در بورس ایران مشغول بودم که نتونستم با بورس ارتباط بگیرم و با روحیاتم سازگاری نداشت و این بود که من برای بار اول با دلار 12000 تومنی وارد دنیای فارکس شدم.
سرمایه و پول های زیادی بدست اوردم و از دست دادم و خیلی علاقمند شدم و از شدت علاقه خیلی دیپ شدم اواخر سال 99 شده بودم یکی که کارش شده معامله گری و تجارت.
اما پس از مدتی که چند تا کتاب خوندم و تجربیاتی را کسب کردم از سال1402 شدم کسی که مخالف شدید فارکس بود و هست و هرکس میگفت برم فارکس یا اسمش میومد میگفتم نه اگر ورود نکنی قطعا تو سودی!
حالا چرا همچین حرفیو میزدم و میزنم دلایلش اندازه یه کتاب بحث دارد.اما درحال حاضر خودم معاملاتی دارم و حساب های فعالی دارم که بعضی وقتا معامله میکنم و میخونم و عمده هزینه هامو از اونجا درمیارم و شاید هم بعضی وقتا عمده درامدم رو از دست بدم.
یه مقاله غیر اصولی در رابطه با فارکس و بینش ساختاری مارکت CFD به کمک چند کتاب و هوش مصنوعی اماده کردم که نسخه اول در نظر گرفتم و قصد دارم تا 4 نسخه ادامش بدهم.
بقیه داستان هم بماند برای بعد 👀
پ.ن: اگر غلط املایی، اشتباه تایپی و … دیدید فدای سرم باشه 👀🥂🍫
پ.ن۲: هرکیم خواست مخالفت کنه با حرفم همینجا قادر به بحث هستم ولی هرکی تعصبی چیزی بنویسه بلاک میکنم👀🫑🥂
#SXL
⚡6👍3
A_Hands_On_Introduction_to_Essential_Python_Libraries_and_Frameworks.pdf
1.4 MB
A Hands-On Introduction to
Essential Python Libraries and Frameworks
این کتابو حتما مطالعه کنید محتویات تخصصی خوبی داره راجع به کتابخونه ها و فریم ورک های پایتون
#SXL
Essential Python Libraries and Frameworks
این کتابو حتما مطالعه کنید محتویات تخصصی خوبی داره راجع به کتابخونه ها و فریم ورک های پایتون
#SXL
😍5👍2
Python for Data Analysis.pdf
1.1 MB
یکی از دوستان بابت تحلیل داده با پایتون کتاب خواسته بود.
کتاب خیلی زیاده این جزوه اکثریت و عمده مطالب رو ساپورت کرده خوندنش خالی از لطف نیست :)🍫
#SXL
کتاب خیلی زیاده این جزوه اکثریت و عمده مطالب رو ساپورت کرده خوندنش خالی از لطف نیست :)🍫
#SXL
👍3⚡1😍1
سلام دوستان، حال دلتون خوب و شاد باشه
سوفیا هستم، برنامه نویس پایتون و دیتاساینتیست، مفتخرم که در پایتونیزم همراه شما باشم.
✨ نظرسنجی خیلی کوتاه دارم، بگید که تمایل دارید مباحث رو در چه زمینه ای بیشتر بزارم؟؟ 😍 نظر شما در کیفیت مطالب تاثیر گذار هست 🥰
سوفیا هستم، برنامه نویس پایتون و دیتاساینتیست، مفتخرم که در پایتونیزم همراه شما باشم.
✨ نظرسنجی خیلی کوتاه دارم، بگید که تمایل دارید مباحث رو در چه زمینه ای بیشتر بزارم؟؟ 😍 نظر شما در کیفیت مطالب تاثیر گذار هست 🥰
Anonymous Poll
33%
پایتون مقدماتی
22%
پاکسازی دیتا
40%
تحلیل داده
21%
مصورسازی داده
54%
ماشین لرنینگ
7%
سایر (لطفاً در کامنت بنویسید)
https://www.linkedin.com/posts/sofia%D9%80mojahed_datascience-machinelearning-ai-activity-7282704774871891968-aKjj?utm_source=share&utm_medium=member_android
✍️ از اهمیت تحلیل اکتشافی دادهها (EDA) در فرآیند علم داده هرچه بگیم کمه! چرا؟
این مرحله پایهای قوی برای مدلسازی و تحلیل دقیقتر دادهها ایجاد میکند. دلایل اهمیت EDA به شرح زیر هست:
1. درک بهتر دادهها
به شما کمک میکند تا داده ها را عمیقتر بشناسید:
- نوع دادهها (عددی، دستهبندیشده، زمانی و غیره).
- دامنه مقادیر و رفتار متغیرها.
- الگوها و روندهای موجود در داده.
2. شناسایی کیفیت دادهها
- مقادیر گمشده (Missing Values): شناسایی و تصمیمگیری در مورد حذف یا جایگزینی آنها.
- دادههای پرت (Outliers): یافتن مقادیری که ممکن است بر مدل تأثیر منفی بگذارند.
- دادههای تکراری (Duplicate Data): حذف دادههای اضافی برای بهبود کارایی.
3. کشف الگوها و روابط
امکان کشف روابط بین متغیرها را فراهم میکند:
- بررسی همبستگی (Correlation) بین متغیرها.
- شناسایی متغیرهای تأثیرگذار در هدف (Target Variable).
- کمک به تشخیص رفتار دادهها در شرایط مختلف.
4. آگاهی از چالشهای داده
مشکلات پنهان در داده را آشکار میکند:
- وجود دادههای ناقص یا ناهماهنگ.
- عدم تطابق توزیع دادهها با فرضیات مدلسازی (مانند نرمال بودن).
- تشخیص سوگیریهای احتمالی.
5. انتخاب ویژگیهای مهم (Feature Selection)
- شناسایی متغیرهای مرتبط و حذف متغیرهای کماهمیت یا همبسته.
- کمک به کاهش ابعاد داده برای سادهتر کردن مدلسازی.
6. بهبود کیفیت مدل
- نتایج EDA میتواند به ایجاد مدلهای دقیقتر کمک کند.
- تنظیم پیشپردازش مناسب (مانند نرمالسازی، تبدیل دادهها یا دستهبندی).
- جلوگیری از مشکلاتی مانند Overfitting یا Underfitting.
7. شناسایی نیاز به مهندسی ویژگیها (Feature Engineering)
میتواند نیاز به ایجاد ویژگیهای جدید (ترکیب، تبدیل یا استخراج ویژگیها) را شناسایی کند.
8. تصمیمگیری استراتژیک
به دانشمند داده کمک میکند تا:
- درک بهتری از هدف پروژه داشته باشد.
- استراتژی مدلسازی مناسبی انتخاب کند (مانند انتخاب الگوریتمها و روشهای ارزیابی).
یک مثال از اهمیت آن در پروژههای واقعی،
فرض کنید که در یک پروژه پیشبینی قیمت مسکن:
- بدون EDA، ممکن است دادههای پرت یا مقادیر گمشده نادیده گرفته شوند که دقت مدل را کاهش میدهد.
- با EDA، متغیرهایی مثل مساحت، تعداد اتاقها یا موقعیت جغرافیایی که بیشترین تأثیر را دارند، شناسایی میشوند.
✨ پس EDA یکی از مراحل کلیدی در علم داده است که پایهای برای تمام مراحل بعدی مانند مدلسازی و ارزیابی فراهم میکند. صرف زمان برای EDA به معنای صرفهجویی در زمان و بهبود دقت در مراحل بعدی پروژه است.
#datascience
#machinelearning
#ai
✍️ از اهمیت تحلیل اکتشافی دادهها (EDA) در فرآیند علم داده هرچه بگیم کمه! چرا؟
این مرحله پایهای قوی برای مدلسازی و تحلیل دقیقتر دادهها ایجاد میکند. دلایل اهمیت EDA به شرح زیر هست:
1. درک بهتر دادهها
به شما کمک میکند تا داده ها را عمیقتر بشناسید:
- نوع دادهها (عددی، دستهبندیشده، زمانی و غیره).
- دامنه مقادیر و رفتار متغیرها.
- الگوها و روندهای موجود در داده.
2. شناسایی کیفیت دادهها
- مقادیر گمشده (Missing Values): شناسایی و تصمیمگیری در مورد حذف یا جایگزینی آنها.
- دادههای پرت (Outliers): یافتن مقادیری که ممکن است بر مدل تأثیر منفی بگذارند.
- دادههای تکراری (Duplicate Data): حذف دادههای اضافی برای بهبود کارایی.
3. کشف الگوها و روابط
امکان کشف روابط بین متغیرها را فراهم میکند:
- بررسی همبستگی (Correlation) بین متغیرها.
- شناسایی متغیرهای تأثیرگذار در هدف (Target Variable).
- کمک به تشخیص رفتار دادهها در شرایط مختلف.
4. آگاهی از چالشهای داده
مشکلات پنهان در داده را آشکار میکند:
- وجود دادههای ناقص یا ناهماهنگ.
- عدم تطابق توزیع دادهها با فرضیات مدلسازی (مانند نرمال بودن).
- تشخیص سوگیریهای احتمالی.
5. انتخاب ویژگیهای مهم (Feature Selection)
- شناسایی متغیرهای مرتبط و حذف متغیرهای کماهمیت یا همبسته.
- کمک به کاهش ابعاد داده برای سادهتر کردن مدلسازی.
6. بهبود کیفیت مدل
- نتایج EDA میتواند به ایجاد مدلهای دقیقتر کمک کند.
- تنظیم پیشپردازش مناسب (مانند نرمالسازی، تبدیل دادهها یا دستهبندی).
- جلوگیری از مشکلاتی مانند Overfitting یا Underfitting.
7. شناسایی نیاز به مهندسی ویژگیها (Feature Engineering)
میتواند نیاز به ایجاد ویژگیهای جدید (ترکیب، تبدیل یا استخراج ویژگیها) را شناسایی کند.
8. تصمیمگیری استراتژیک
به دانشمند داده کمک میکند تا:
- درک بهتری از هدف پروژه داشته باشد.
- استراتژی مدلسازی مناسبی انتخاب کند (مانند انتخاب الگوریتمها و روشهای ارزیابی).
یک مثال از اهمیت آن در پروژههای واقعی،
فرض کنید که در یک پروژه پیشبینی قیمت مسکن:
- بدون EDA، ممکن است دادههای پرت یا مقادیر گمشده نادیده گرفته شوند که دقت مدل را کاهش میدهد.
- با EDA، متغیرهایی مثل مساحت، تعداد اتاقها یا موقعیت جغرافیایی که بیشترین تأثیر را دارند، شناسایی میشوند.
✨ پس EDA یکی از مراحل کلیدی در علم داده است که پایهای برای تمام مراحل بعدی مانند مدلسازی و ارزیابی فراهم میکند. صرف زمان برای EDA به معنای صرفهجویی در زمان و بهبود دقت در مراحل بعدی پروژه است.
#datascience
#machinelearning
#ai
Linkedin
#datascience #machinelearning #ai #python | Sofia Mojahed
✍️ از اهمیت تحلیل اکتشافی دادهها (EDA) در فرآیند علم داده هرچه بگیم کمه! چرا؟
این مرحله پایهای قوی برای مدلسازی و تحلیل دقیقتر دادهها ایجاد میکند. دلایل اهمیت EDA به شرح زیر هست:
1. درک بهتر دادهها
به شما کمک میکند تا داده ها را عمیقتر بشناسید:…
این مرحله پایهای قوی برای مدلسازی و تحلیل دقیقتر دادهها ایجاد میکند. دلایل اهمیت EDA به شرح زیر هست:
1. درک بهتر دادهها
به شما کمک میکند تا داده ها را عمیقتر بشناسید:…
👍6⚡1
Forwarded from Data science
Data science
Video
✨From Raw Data to Real Insights:
Understanding the Journey of a Modern Data
Pipeline
A data pipeline generally consists of a sequence of stages or components that transfer data from its origin to a destination for analysis and utilization.
Here's an overview of the common stages and components in a data pipeline.
1. Collect
- Purpose: Gather raw data from various sources. This data can be generated by applications, sensors, devices, databases, or user interactions.
Components:
- Data Store: Holds operational data, often a database (e.g., relational databases, NoSQL stores).
- Data Stream: Handles real-time data feeds, often using sources like IoT devices, transactional systems, or event logs.
- Application Data: Collects data directly from applications, APIs, or web services.
2. Ingest
Purpose: Move collected data into the pipeline, transforming and consolidating it for further use.
Components:
Data Load: Transfers data from data stores and applications into the processing system.
Event Queue: Manages the flow of data, particularly streaming data, using tools like Apache Kafka or AWS Kinesis.
- Outcome: Data enters the processing layer, often in a more structured format, with consistent formats and time-stamping.
3. Store
Purpose: Persist data so it can be easily
accessed and processed.
- Components:
- Data Lake: A centralized storage repository for large amounts of structured,
semi-structured, and unstructured data.
- Data Warehouse: Structured storage for processed data, optimized for querying and
reporting.
- Lakehouse: Combines elements of data lakes and data warehouses to provide both raw and processed data storage.
- Outcome: Data is stored in various formats (raw, transformed, aggregated) and is accessible for compute and analysis.
4. Compute
Purpose: Process data to prepare it for
analysis and use.
- Components:
- Batch Processing: Periodic processing of large datasets, using frameworks like Apache
Spark or Hadoop.
- Stream Processing: Real-time processing of data streams, often using Apache Flink, Apache Kafka Streams, or AWS Kinesis Data Analytics.
Outcome: Data is processed into usable forms, such as aggregated tables, machine learning features, or transformed datasets.
5. Consume
- Purpose: Deliver data insights and enable its
use across various applications and user groups.
Components:
Data Science, Business Analysis, ML
Understanding the Journey of a Modern Data
Pipeline
A data pipeline generally consists of a sequence of stages or components that transfer data from its origin to a destination for analysis and utilization.
Here's an overview of the common stages and components in a data pipeline.
1. Collect
- Purpose: Gather raw data from various sources. This data can be generated by applications, sensors, devices, databases, or user interactions.
Components:
- Data Store: Holds operational data, often a database (e.g., relational databases, NoSQL stores).
- Data Stream: Handles real-time data feeds, often using sources like IoT devices, transactional systems, or event logs.
- Application Data: Collects data directly from applications, APIs, or web services.
2. Ingest
Purpose: Move collected data into the pipeline, transforming and consolidating it for further use.
Components:
Data Load: Transfers data from data stores and applications into the processing system.
Event Queue: Manages the flow of data, particularly streaming data, using tools like Apache Kafka or AWS Kinesis.
- Outcome: Data enters the processing layer, often in a more structured format, with consistent formats and time-stamping.
3. Store
Purpose: Persist data so it can be easily
accessed and processed.
- Components:
- Data Lake: A centralized storage repository for large amounts of structured,
semi-structured, and unstructured data.
- Data Warehouse: Structured storage for processed data, optimized for querying and
reporting.
- Lakehouse: Combines elements of data lakes and data warehouses to provide both raw and processed data storage.
- Outcome: Data is stored in various formats (raw, transformed, aggregated) and is accessible for compute and analysis.
4. Compute
Purpose: Process data to prepare it for
analysis and use.
- Components:
- Batch Processing: Periodic processing of large datasets, using frameworks like Apache
Spark or Hadoop.
- Stream Processing: Real-time processing of data streams, often using Apache Flink, Apache Kafka Streams, or AWS Kinesis Data Analytics.
Outcome: Data is processed into usable forms, such as aggregated tables, machine learning features, or transformed datasets.
5. Consume
- Purpose: Deliver data insights and enable its
use across various applications and user groups.
Components:
Data Science, Business Analysis, ML
Forwarded from Data science
سلام....
من اومدم با ی مطلب جالب دیگه 😊
از اونجایی که هم جنگو کار کردم و هم دیتاساینس، برای خودم خیلی جذابه که این دور رو باهم merge کنم و در موردش سرچ میکنم. شاید شما هم بخواید بدونید که
چطوری یک پروژه ی هوش مصنوعی رو وارد بک اندی مثلاً جنگو کنید؟!
چون جنگو و هوش مصنوعی هر دو با زبان پایتون هست پس کار سختی نیست.
البته قبلا این کار رو برای RAG system که یک نوع LLM هست انجام دادم. خالی از لطف نیست تا در موردش بیشتر بحث بشه، روش های مختلفی هست، اما ساده ترین روش بنظرم این داکیومنتشن Django ai هست.
مراحل کار اینطوری هست که:
بعد از اینکه virtual environment رو ایجاد کردین، Django ai رو نصب میکنید، حتما دایرکتوری رو مشخص میکنید و سپس با کد :
python manage.py makemigrations
python manage.py migrate
عملیات مهم migration رو میزنید!
بعدش super user رو ایجاد میکنید(شاید از قبل هم داشته باشید!)،
بعد از اون run server و git clone داریم!
قسمت requirements.txt هم که جز لاینفک جنگو هست! پس فراموشش نکنید:
pip install -r requirements.txt
(اگه نصب دارید پس فقط آپدیتش کنید)
لینک داکیومنتشن Django ai هست
https://lnkd.in/dfmVGnim
اگه مطلب واستون جالبه و دوست داشتید برای دوستان تون share کنید. بر اساس ویوها و کامنت های شما محتواهای بعدی کانال رو میسازم.
نظر همراهانم ارزشمنده. ❣️
من اومدم با ی مطلب جالب دیگه 😊
از اونجایی که هم جنگو کار کردم و هم دیتاساینس، برای خودم خیلی جذابه که این دور رو باهم merge کنم و در موردش سرچ میکنم. شاید شما هم بخواید بدونید که
چطوری یک پروژه ی هوش مصنوعی رو وارد بک اندی مثلاً جنگو کنید؟!
چون جنگو و هوش مصنوعی هر دو با زبان پایتون هست پس کار سختی نیست.
البته قبلا این کار رو برای RAG system که یک نوع LLM هست انجام دادم. خالی از لطف نیست تا در موردش بیشتر بحث بشه، روش های مختلفی هست، اما ساده ترین روش بنظرم این داکیومنتشن Django ai هست.
مراحل کار اینطوری هست که:
بعد از اینکه virtual environment رو ایجاد کردین، Django ai رو نصب میکنید، حتما دایرکتوری رو مشخص میکنید و سپس با کد :
python manage.py makemigrations
python manage.py migrate
عملیات مهم migration رو میزنید!
بعدش super user رو ایجاد میکنید(شاید از قبل هم داشته باشید!)،
بعد از اون run server و git clone داریم!
قسمت requirements.txt هم که جز لاینفک جنگو هست! پس فراموشش نکنید:
pip install -r requirements.txt
(اگه نصب دارید پس فقط آپدیتش کنید)
لینک داکیومنتشن Django ai هست
https://lnkd.in/dfmVGnim
اگه مطلب واستون جالبه و دوست داشتید برای دوستان تون share کنید. بر اساس ویوها و کامنت های شما محتواهای بعدی کانال رو میسازم.
نظر همراهانم ارزشمنده. ❣️
lnkd.in
LinkedIn
This link will take you to a page that’s not on LinkedIn
Forwarded from Data science
✍️ توضیح عملکرد متد های پایتون:
دستور append(item)— افزودن یک عنصر به انتهای لیست.
دستور remove(item) — حذف اولین مورد از یک مقدار خاص.
دستور insert(index, item) — قرار دادن یک عنصر در موقعیت خاصی در لیست. → زمانی که ترتیب عناصر حیاتی است، کاربرد دارد.
دستور pop([index]) — حذف و بازگشت یک عنصر با استفاده از اندیس آن. → معمولاً با append() در الگوریتمهای مبتنی بر پشته همراه است.
دستور count(item) — تعداد دفعاتی که یک مقدار در لیست ظاهر میشود را برمیگرداند.
دستور index(item[, start[, end]]) — اولین موقعیت یک مقدار را پیدا میکند. → ضروری برای پیادهسازی جستجو یا منطق اعتبارسنجی.
دستور sort(key=None, reverse=False)— مرتبسازی عناصر در محل، با قوانین سفارشی اختیاری.
دستور reverse() — ترتیب لیست را معکوس میکند. → معمولاً در مکانیزمهای لغو یا ویژگیهای بازگشت استفاده میشود.
دستور copy() — یک کپی سطحی از لیست ایجاد میکند. → از تغییرات ناخواسته هنگام انتقال لیستها بین توابع جلوگیری میکند.
دستور clear() — لیست را بهطور کامل خالی میکند. → ایدهآل برای بازنشانی ذخیرهسازی موقت یا ساختارهای کش.
دستور append(item)— افزودن یک عنصر به انتهای لیست.
دستور remove(item) — حذف اولین مورد از یک مقدار خاص.
دستور insert(index, item) — قرار دادن یک عنصر در موقعیت خاصی در لیست. → زمانی که ترتیب عناصر حیاتی است، کاربرد دارد.
دستور pop([index]) — حذف و بازگشت یک عنصر با استفاده از اندیس آن. → معمولاً با append() در الگوریتمهای مبتنی بر پشته همراه است.
دستور count(item) — تعداد دفعاتی که یک مقدار در لیست ظاهر میشود را برمیگرداند.
دستور index(item[, start[, end]]) — اولین موقعیت یک مقدار را پیدا میکند. → ضروری برای پیادهسازی جستجو یا منطق اعتبارسنجی.
دستور sort(key=None, reverse=False)— مرتبسازی عناصر در محل، با قوانین سفارشی اختیاری.
دستور reverse() — ترتیب لیست را معکوس میکند. → معمولاً در مکانیزمهای لغو یا ویژگیهای بازگشت استفاده میشود.
دستور copy() — یک کپی سطحی از لیست ایجاد میکند. → از تغییرات ناخواسته هنگام انتقال لیستها بین توابع جلوگیری میکند.
دستور clear() — لیست را بهطور کامل خالی میکند. → ایدهآل برای بازنشانی ذخیرهسازی موقت یا ساختارهای کش.
❤4
Forwarded from Data science
✅ مراحل ساده برای کار با Git:
1. وضعیت اولیه
- یک مخزن راه دور دارید که شامل فایل README.md است.
- در ماشین محلی هیچ فایل پروژهای وجود ندارد.
2. دستور
- کل مخزن راه دور به ماشین محلی کپی میشود.
- یک مخزن محلی متصل به مخزن راه دور ایجاد میشود.
3. ایجاد یک فایل جدید
- فایلی به نام
در دایرکتوری کاری محلی ایجاد میکنید.
- این فایل در حالت untracked قرار دارد.
4. دستور
- تمام تغییرات در دایرکتوری کاری برای ثبت در commit بعدی آماده میشوند.
5. دستور
- تغییرات آماده شده ثبت میشوند و یک commit جدید ایجاد میشود.
6. دستور
-د commit های محلی به مخزن راه دور بارگذاری میشوند.
1. وضعیت اولیه
- یک مخزن راه دور دارید که شامل فایل README.md است.
- در ماشین محلی هیچ فایل پروژهای وجود ندارد.
2. دستور
git clone <repository>
- کل مخزن راه دور به ماشین محلی کپی میشود.
- یک مخزن محلی متصل به مخزن راه دور ایجاد میشود.
3. ایجاد یک فایل جدید
- فایلی به نام
newfile.txt
در دایرکتوری کاری محلی ایجاد میکنید.
- این فایل در حالت untracked قرار دارد.
4. دستور
git add .
- تمام تغییرات در دایرکتوری کاری برای ثبت در commit بعدی آماده میشوند.
5. دستور
git commit -m "<message>"
- تغییرات آماده شده ثبت میشوند و یک commit جدید ایجاد میشود.
6. دستور
git push
-د commit های محلی به مخزن راه دور بارگذاری میشوند.
👍5
برای راه اندازی بیزینسم پول کم اوردم بیایید دونات کنید بچه ها تتر متراتونو رو کنید هرچقد تونستید بزنید بهم خدا خیرتون بده دیگه من صفرم :) از ۱ ریال تا ۱۰۰ میلیون ریال پذیرای کمک های شما هستم:)
🤣8👎6🍾1
دیپ سیک زمانه ات را بشناس!
این مدته که درگیرم یسری پستا میبینم بین دیپ سیکیا و چت جیبیتیا دعوای ناموسی اتفاق افتاده اکیپ دیپ سیکیا میگن ما با هزینه کم این مدلو دادیم چت جیبیتیا میگن کیفیت مارو نداری اون وسطم مدیرای این دو شرکت نشستن میدون کالیفرنیا قهوه خونه بارون ترامپ دیزی مشتی میزنن میخندن به اهالی تویتر و لینکدین!
#SXL
این مدته که درگیرم یسری پستا میبینم بین دیپ سیکیا و چت جیبیتیا دعوای ناموسی اتفاق افتاده اکیپ دیپ سیکیا میگن ما با هزینه کم این مدلو دادیم چت جیبیتیا میگن کیفیت مارو نداری اون وسطم مدیرای این دو شرکت نشستن میدون کالیفرنیا قهوه خونه بارون ترامپ دیزی مشتی میزنن میخندن به اهالی تویتر و لینکدین!
#SXL
🤣9👍3👎1