سلام دوستان. وقت همگی بهخیر. 🌱
جلسه سیزدهم باهمخوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقهمند به شرکت در جلسه هستند میتوانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.
https://meet.google.com/zgn-vfgv-ifz
منتظر حضور گرمتان هستیم.✨
جلسه سیزدهم باهمخوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقهمند به شرکت در جلسه هستند میتوانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.
https://meet.google.com/zgn-vfgv-ifz
منتظر حضور گرمتان هستیم.✨
Google
Real-time meetings by Google. Using your browser, share your video, desktop, and presentations with teammates and customers.
📌 pabloinsente.github.io/intro-linear-algebra
یک مخزن عالی برای یادگیری جبرخطی به صورت عملی با پایتون!
امروزه مباحث بسیاری از یادگیری ماشین تنیده شده با جبر خطی است که یادگیری آن برای هر متخصص داده لازم است.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
یک مخزن عالی برای یادگیری جبرخطی به صورت عملی با پایتون!
امروزه مباحث بسیاری از یادگیری ماشین تنیده شده با جبر خطی است که یادگیری آن برای هر متخصص داده لازم است.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
💡جلسه چهاردهم باهمخوانی کتاب
“Hands-on Machine Learning”
موضوعاتی که در این جلسه بهشون میپردازیم:
Dimensionality Reduction
▫️The Curse of Dimensionality
▫️Main Approaches for Dimensionality Reduction
Projection
Manifold Learning
▫️PCA
Preserving the Variance
Principal Components
Projecting Down to d Dimensions
Using Scikit-Learn
Explained Variance Ratio
Choosing the Right Number of Dimensions
PCA for Compression
Randomized PCA
Incremental PCA
▫️Random Projection
▫️LLE
▫️Other Dimensionality Reduction Techniques
🗓تاریخ: چهارشنبه، ۳۱ مرداد
⏰زمان: ۲۱:٠٠
🔗لینک بستر آنلاین در کانال ارسال میشود.
✨منتظر حضور گرمتان هستیم!
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
“Hands-on Machine Learning”
موضوعاتی که در این جلسه بهشون میپردازیم:
Dimensionality Reduction
▫️The Curse of Dimensionality
▫️Main Approaches for Dimensionality Reduction
Projection
Manifold Learning
▫️PCA
Preserving the Variance
Principal Components
Projecting Down to d Dimensions
Using Scikit-Learn
Explained Variance Ratio
Choosing the Right Number of Dimensions
PCA for Compression
Randomized PCA
Incremental PCA
▫️Random Projection
▫️LLE
▫️Other Dimensionality Reduction Techniques
🗓تاریخ: چهارشنبه، ۳۱ مرداد
⏰زمان: ۲۱:٠٠
🔗لینک بستر آنلاین در کانال ارسال میشود.
✨منتظر حضور گرمتان هستیم!
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
سلام دوستان. وقت همگی بهخیر. 🌱
جلسه چهاردهم باهمخوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقهمند به شرکت در جلسه هستند میتوانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.
https://meet.google.com/zgn-vfgv-ifz
منتظر حضور گرمتان هستیم.✨
جلسه چهاردهم باهمخوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقهمند به شرکت در جلسه هستند میتوانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.
https://meet.google.com/zgn-vfgv-ifz
منتظر حضور گرمتان هستیم.✨
Google
Real-time meetings by Google. Using your browser, share your video, desktop, and presentations with teammates and customers.
💡جلسه پانزدهم باهمخوانی کتاب
“Hands-on Machine Learning”
موضوعاتی که در این جلسه بهشون میپردازیم:
Unsupervised Learning Techniques
▫️Clustering Algorithms: k-means and DBSCAN
k-means
Limits of k-means
Using Clustering for Image Segmentation
Using Clustering for Semi-Supervised Learning
🗓تاریخ: چهارشنبه، ۷ شهریور
⏰زمان: ۲۱:٠٠
🔗لینک بستر آنلاین در کانال ارسال میشود.
✨منتظر حضور گرمتان هستیم!
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
“Hands-on Machine Learning”
موضوعاتی که در این جلسه بهشون میپردازیم:
Unsupervised Learning Techniques
▫️Clustering Algorithms: k-means and DBSCAN
k-means
Limits of k-means
Using Clustering for Image Segmentation
Using Clustering for Semi-Supervised Learning
🗓تاریخ: چهارشنبه، ۷ شهریور
⏰زمان: ۲۱:٠٠
🔗لینک بستر آنلاین در کانال ارسال میشود.
✨منتظر حضور گرمتان هستیم!
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔸Ensemble Learning
🔹یادگیری تجمعی یک پارادایم در یادگیری ماشین است که در آن چندین مدل برای بهبود عملکرد کلی وظایف پیشبینی ترکیب میشوند. به جای تکیه بر یک مدل واحد، روشهای تجمعی میتوانند از نقاط قوت مدلهای مختلف استفاده کنند که میتواند به دستیابی به دقت بالاتر و استحکام بهتر کمک کند.
✨در ادامه به مفاهیم کلیدی در یادگیری تجمعی میپردازیم.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔹یادگیری تجمعی یک پارادایم در یادگیری ماشین است که در آن چندین مدل برای بهبود عملکرد کلی وظایف پیشبینی ترکیب میشوند. به جای تکیه بر یک مدل واحد، روشهای تجمعی میتوانند از نقاط قوت مدلهای مختلف استفاده کنند که میتواند به دستیابی به دقت بالاتر و استحکام بهتر کمک کند.
✨در ادامه به مفاهیم کلیدی در یادگیری تجمعی میپردازیم.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔸Voting Classifiers
🔹طبقهبندهای رأیگیری چندین مدل طبقهبندی را برای بهبود دقت کلی پیشبینی ترکیب میکند.
ایده اصلی این است که پیشبینیهای چندین مدل را ترکیب کنیم و از نقاط قوت آنها برای دستیابی به یک طبقهبند قویتر استفاده کنیم.
■دو نوع اصلی رأیگیری وجود دارد:
• Hard Voting:
کلاسی که بیشترین رأی (یعنی کلاس اکثریت) را دریافت میکند، بهعنوان پیشبینی نهایی انتخاب میشود.
• Soft Voting:
احتمالهای هر کلاس از هر طبقهبندی ترکیب میشوند و کلاسی که بالاترین احتمال میانگین را دارد، انتخاب میشود.
🔺مثال
در ادامه به یک پیادهسازی با استفاده از رگرسیون لجستیک، ماشین پشتیبان (SVM)، و جنگل تصادفی(Random forest) میپردازیم:
✨ توضیح کد:
۱. ایجاد مجموعه داده: ما یک مجموعه داده مصنوعی با استفاده از
۲. تعریف مدلها: سه مدل پایه را تعریف میکنیم:
- رگرسیون لجستیک: یک مدل خطی ساده برای طبقهبندی باینری.
- ماشین پشتیبان (SVM): مهم است که
- جنگل تصادفی(Random forest): یک مجموعه از درختان تصمیم که در برابر اورفیتینگ مقاوم است.
۳. طبقهبند رأیگیری: ما یک
ما
۴. آموزش مدل: مدل با استفاده از مجموعه دادههای آموزشی آموزش دیده میشود.
۵. پیشبینی و ارزیابی: در نهایت، ما برچسبها را برای مجموعه آزمایشی پیشبینی کرده و دقت طبقهبند رأیگیری را ارزیابی میکنیم.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔹طبقهبندهای رأیگیری چندین مدل طبقهبندی را برای بهبود دقت کلی پیشبینی ترکیب میکند.
ایده اصلی این است که پیشبینیهای چندین مدل را ترکیب کنیم و از نقاط قوت آنها برای دستیابی به یک طبقهبند قویتر استفاده کنیم.
■دو نوع اصلی رأیگیری وجود دارد:
• Hard Voting:
کلاسی که بیشترین رأی (یعنی کلاس اکثریت) را دریافت میکند، بهعنوان پیشبینی نهایی انتخاب میشود.
• Soft Voting:
احتمالهای هر کلاس از هر طبقهبندی ترکیب میشوند و کلاسی که بالاترین احتمال میانگین را دارد، انتخاب میشود.
🔺مثال
در ادامه به یک پیادهسازی با استفاده از رگرسیون لجستیک، ماشین پشتیبان (SVM)، و جنگل تصادفی(Random forest) میپردازیم:
from sklearn.ensemble import VotingClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC
from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
# مرحله 1: ایجاد یک مجموعه داده مصنوعی
X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# مرحله 2: تعریف مدلهای پایه
log_reg = LogisticRegression(solver='liblinear')
svm = SVC(probability=True) # تنظیم probability=True برای رأیگیری نرم
random_forest = RandomForestClassifier(n_estimators=100)
# مرحله 3: ایجاد طبقهبند رأیگیری
voting_classifier = VotingClassifier(
estimators=[
('lr', log_reg),
('svm', svm),
('rf', random_forest)
],
voting='soft' # انتخاب 'hard' برای رأیگیری سخت
)
# مرحله 4: آموزش مدل
voting_classifier.fit(X_train, y_train)
# مرحله 5: انجام پیشبینی و ارزیابی
y_pred = voting_classifier.predict(X_test)
accuracy = accuracy_score(y_test, y_pred)
print(f"دقت طبقهبند رأیگیری: {accuracy:.2f}")
✨ توضیح کد:
۱. ایجاد مجموعه داده: ما یک مجموعه داده مصنوعی با استفاده از
make_classification
ایجاد میکنیم. این شامل ویژگیها و برچسبهای کلاسی باینری است.۲. تعریف مدلها: سه مدل پایه را تعریف میکنیم:
- رگرسیون لجستیک: یک مدل خطی ساده برای طبقهبندی باینری.
- ماشین پشتیبان (SVM): مهم است که
probability=True
را تنظیم کنیم تا بتوانیم از رأیگیری نرم استفاده کنیم.- جنگل تصادفی(Random forest): یک مجموعه از درختان تصمیم که در برابر اورفیتینگ مقاوم است.
۳. طبقهبند رأیگیری: ما یک
VotingClassifier
ایجاد میکنیم که سه مدل پایه ما را در بر میگیرد.ما
voting='soft'
را انتخاب میکنیم تا از احتمالهای پیشبینیشده برای پیشبینیها استفاده کنیم.۴. آموزش مدل: مدل با استفاده از مجموعه دادههای آموزشی آموزش دیده میشود.
۵. پیشبینی و ارزیابی: در نهایت، ما برچسبها را برای مجموعه آزمایشی پیشبینی کرده و دقت طبقهبند رأیگیری را ارزیابی میکنیم.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔸Bagging and Pasting
🔹Bagging (Bootstrap Aggregating): چندین نسخه از دادههای آموزشی با استفاده از روش نمونهبرداری با جایگزینی ایجاد میشود. هر مدل بر روی یک نمونه متفاوت آموزش میبیند.
🔹Pasting:
مشابه bagging است، اما نمونهها بدون جایگزینی انتخاب میشوند.
✨هر دو روش به کاهش واریانس و مبارزه با اورفیتینگ کمک میکنند.
🔸Bagging and Pasting in Scikit-Learn
🔹اسکیت-لرن یک پیادهسازی از bagging را از طریق
🔺مثال:
🔹Bagging (Bootstrap Aggregating): چندین نسخه از دادههای آموزشی با استفاده از روش نمونهبرداری با جایگزینی ایجاد میشود. هر مدل بر روی یک نمونه متفاوت آموزش میبیند.
🔹Pasting:
مشابه bagging است، اما نمونهها بدون جایگزینی انتخاب میشوند.
✨هر دو روش به کاهش واریانس و مبارزه با اورفیتینگ کمک میکنند.
🔸Bagging and Pasting in Scikit-Learn
🔹اسکیت-لرن یک پیادهسازی از bagging را از طریق
BaggingClassifier
و BaggingRegressor
ارائه میدهد. 🔺مثال:
from sklearn.ensemble import BaggingClassifier
from sklearn.tree import DecisionTreeClassifier
# Create a base model
base_model = DecisionTreeClassifier()
# Create the bagging classifier
bagging_model = BaggingClassifier(base_estimator=base_model, n_estimators=100, max_samples=0.8, max_features=1.0)
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube