Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
220 - Telegram Web
Telegram Web
سلام دوستان. وقت همگی به‌خیر. 🌱

جلسه سیزدهم باهم‌خوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقه‌مند به شرکت در جلسه هستند می‌توانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.

https://meet.google.com/zgn-vfgv-ifz

منتظر حضور گرمتان هستیم.
با تشکر از خانم پرتو مرادی و خانم الهه دورانی بابت ارائه خوبی که داشتند.

جلسه‌ی بعد، ۳۱ مرداد ماه، در خدمت آقای سینا سلاخی و آقای عرفان شفیعی مقدم هستیم تا از صفحه ۲۳۷ تا ۲۵۷ کتاب رو ارائه بدهند.

پوستر جلسه، متعاقباً ارسال خواهد شد. 🌿

🤖
🆔 Telegram | LinkedIn | YouTube
ویدیوی ضبط شده جلسه‌ی سیزدهم در یوتیوب بارگزاری شده و می‌تونید به اون دسترسی داشته باشید.

همچنین فایل مطالب ارائه شده در جلسه رو اینجا خواهیم گذاشت تا افرادی که در جلسه حضور نداشتند از مطالب استفاده کنند.

ممنون از همراهی شما.🌱

🤖
🆔 Telegram | LinkedIn | YouTube
📌pabloinsente.github.io/intro-linear-algebra
یک مخزن عالی برای یادگیری جبرخطی به صورت عملی با پایتون!
امروزه مباحث بسیاری از یادگیری ماشین تنیده شده با جبر خطی است که یادگیری آن برای هر متخصص داده لازم است.
🤖
🆔 Telegram | LinkedIn | YouTube
💡جلسه چهاردهم باهم‌خوانی کتاب
“Hands-on Machine Learning”

موضوعاتی که در این جلسه بهشون می‌پردازیم:

Dimensionality Reduction
▫️The Curse of Dimensionality
▫️Main Approaches for Dimensionality Reduction
Projection
Manifold Learning
▫️PCA
Preserving the Variance
Principal Components
Projecting Down to d Dimensions
Using Scikit-Learn
Explained Variance Ratio
Choosing the Right Number of Dimensions
PCA for Compression
Randomized PCA
Incremental PCA
▫️Random Projection
▫️LLE
▫️Other Dimensionality Reduction Techniques

🗓تاریخ: چهارشنبه، ۳۱ مرداد
زمان: ۲۱:٠٠
🔗لینک بستر آنلاین در کانال ارسال می‌شود.

منتظر حضور گرمتان هستیم!


🤖
🆔 Telegram | LinkedIn | YouTube
سلام دوستان. وقت همگی به‌خیر. 🌱

جلسه چهاردهم باهم‌خوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقه‌مند به شرکت در جلسه هستند می‌توانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.

https://meet.google.com/zgn-vfgv-ifz

منتظر حضور گرمتان هستیم.
با تشکر از آقای سینا سلاخی و آقای عرفان شفیعی مقدم بابت ارائه خوبی که داشتند.

جلسه‌ی بعد، ۷ شهریور ماه، در خدمت آقای حمید خوئینی و آقای برزان حیاتی هستیم تا از صفحه ۲۵۹ تا ۲۷۸ کتاب رو ارائه بدهند.

پوستر جلسه، متعاقباً ارسال خواهد شد. 🌿

🤖
🆔 Telegram | LinkedIn | YouTube
ویدیوی ضبط شده جلسه‌ی چهاردهم در یوتیوب بارگزاری شده و می‌تونید به اون دسترسی داشته باشید.

همچنین فایل مطالب ارائه شده در جلسه رو اینجا قرار می‌دیم تا افرادی که در جلسه حضور نداشتند از مطالب استفاده کنند.

ممنون از همراهی شما.🌱

🤖
🆔 Telegram | LinkedIn | YouTube
Tensorphilia
Tensorphilia_Chapter7.pptx
فایل پاور جلسه سیزدهم خدمت شما.
💡جلسه پانزدهم باهم‌خوانی کتاب
“Hands-on Machine Learning”

موضوعاتی که در این جلسه بهشون می‌پردازیم:

Unsupervised Learning Techniques
▫️Clustering Algorithms: k-means and DBSCAN
k-means
Limits of k-means
Using Clustering for Image Segmentation
Using Clustering for Semi-Supervised Learning

🗓تاریخ: چهارشنبه، ۷ شهریور
زمان: ۲۱:٠٠
🔗لینک بستر آنلاین در کانال ارسال می‌شود.

منتظر حضور گرمتان هستیم!


🤖
🆔 Telegram | LinkedIn | YouTube
Tensorphilia
ادامه‌ی پست‌های مروری:
ادامه‌ی پست‌های مروری:
🔸Ensemble Learning

🔹یادگیری تجمعی یک پارادایم در یادگیری ماشین است که در آن چندین مدل برای بهبود عملکرد کلی وظایف پیش‌بینی ترکیب می‌شوند. به جای تکیه بر یک مدل واحد، روش‌های تجمعی می‌توانند از نقاط قوت مدل‌های مختلف استفاده کنند که می‌تواند به دستیابی به دقت بالاتر و استحکام بهتر کمک کند.

در ادامه به مفاهیم کلیدی در یادگیری تجمعی می‌پردازیم.
🤖
🆔 Telegram | LinkedIn | YouTube
🔸Voting Classifiers

🔹طبقه‌بندهای رأی‌گیری چندین مدل طبقه‌بندی را برای بهبود دقت کلی پیش‌بینی ترکیب می‌کند.
ایده اصلی این است که پیش‌بینی‌های چندین مدل را ترکیب کنیم و از نقاط قوت آن‌ها برای دستیابی به یک طبقه‌بند قوی‌تر استفاده کنیم.
■دو نوع اصلی رأی‌گیری وجود دارد:
Hard Voting:
کلاسی که بیشترین رأی (یعنی کلاس اکثریت) را دریافت می‌کند، به‌عنوان پیش‌بینی نهایی انتخاب می‌شود.
Soft Voting:
احتمال‌های هر کلاس از هر طبقه‌بندی ترکیب می‌شوند و کلاسی که بالاترین احتمال میانگین را دارد، انتخاب می‌شود.

🔺مثال
در ادامه به یک پیاده‌سازی با استفاده از رگرسیون لجستیک، ماشین پشتیبان (SVM)، و جنگل تصادفی(Random forest) می‌پردازیم:

from sklearn.ensemble import VotingClassifier
from sklearn.linear_model import LogisticRegression
from sklearn.svm import SVC
from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

# مرحله 1: ایجاد یک مجموعه داده مصنوعی
X, y = make_classification(n_samples=1000, n_features=20, n_classes=2, random_state=42)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# مرحله 2: تعریف مدل‌های پایه
log_reg = LogisticRegression(solver='liblinear')
svm = SVC(probability=True) # تنظیم probability=True برای رأی‌گیری نرم
random_forest = RandomForestClassifier(n_estimators=100)

# مرحله 3: ایجاد طبقه‌بند رأی‌گیری
voting_classifier = VotingClassifier(
estimators=[
('lr', log_reg),
('svm', svm),
('rf', random_forest)
],
voting='soft' # انتخاب 'hard' برای رأی‌گیری سخت
)

# مرحله 4: آموزش مدل
voting_classifier.fit(X_train, y_train)

# مرحله 5: انجام پیش‌بینی و ارزیابی
y_pred = voting_classifier.predict(X_test)
accuracy = accuracy_score(y_test, y_pred)

print(f"دقت طبقه‌بند رأی‌گیری: {accuracy:.2f}")

توضیح کد:
۱. ایجاد مجموعه داده: ما یک مجموعه داده مصنوعی با استفاده از make_classification ایجاد می‌کنیم. این شامل ویژگی‌ها و برچسب‌های کلاسی باینری است.
۲. تعریف مدل‌ها: سه مدل پایه را تعریف می‌کنیم:
- رگرسیون لجستیک: یک مدل خطی ساده برای طبقه‌بندی باینری.
- ماشین پشتیبان (SVM): مهم است که probability=True را تنظیم کنیم تا بتوانیم از رأی‌گیری نرم استفاده کنیم.
- جنگل تصادفی(Random forest): یک مجموعه از درختان تصمیم که در برابر اورفیتینگ مقاوم است.
۳. طبقه‌بند رأی‌گیری: ما یک VotingClassifier ایجاد می‌کنیم که سه مدل پایه ما را در بر می‌گیرد.
ما voting='soft' را انتخاب می‌کنیم تا از احتمال‌های پیش‌بینی‌شده برای پیش‌بینی‌ها استفاده کنیم.
۴. آموزش مدل: مدل با استفاده از مجموعه داده‌های آموزشی آموزش دیده می‌شود.
۵. پیش‌بینی و ارزیابی: در نهایت، ما برچسب‌ها را برای مجموعه آزمایشی پیش‌بینی کرده و دقت طبقه‌بند رأی‌گیری را ارزیابی می‌کنیم.
🤖
🆔 Telegram | LinkedIn | YouTube
🔸Bagging and Pasting

🔹Bagging (Bootstrap Aggregating): چندین نسخه از داده‌های آموزشی با استفاده از روش نمونه‌برداری با جایگزینی ایجاد می‌شود. هر مدل بر روی یک نمونه متفاوت آموزش می‌بیند.
🔹Pasting:
مشابه bagging است، اما نمونه‌ها بدون جایگزینی انتخاب می‌شوند.

هر دو روش به کاهش واریانس و مبارزه با اورفیتینگ کمک می‌کنند.

🔸Bagging and Pasting in Scikit-Learn
🔹اسکیت-لرن یک پیاده‌سازی از bagging را از طریق BaggingClassifier و BaggingRegressor ارائه می‌دهد.

🔺مثال:
from sklearn.ensemble import BaggingClassifier
from sklearn.tree import DecisionTreeClassifier

# Create a base model
base_model = DecisionTreeClassifier()

# Create the bagging classifier
bagging_model = BaggingClassifier(base_estimator=base_model, n_estimators=100, max_samples=0.8, max_features=1.0)


🤖
🆔 Telegram | LinkedIn | YouTube
2024/10/07 21:24:46
Back to Top
HTML Embed Code: