▫️PCA (Principal Component Analysis)
یکی از پرکاربردترین روشها برای کاهش ابعاد است. این روش با شناسایی مؤلفههای اصلی، که جهتهایی هستند که دادهها در آنها بیشترین واریانس را دارند، و پرتوسازی دادهها بر روی این
محورهای جدید کار میکند.
🔻اولین مؤلفه اصلی بیشترین واریانس ممکن در دادهها را شامل میشود و هر مؤلفه بعدی حداکثر واریانس باقیمانده که به مؤلفههای قبلی عمود است را ثبت میکند.
🔻این تکنیک برای فشردهسازی دادهها، حذف نویز و آشکارسازی الگوهای پنهان مؤثر است.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
یکی از پرکاربردترین روشها برای کاهش ابعاد است. این روش با شناسایی مؤلفههای اصلی، که جهتهایی هستند که دادهها در آنها بیشترین واریانس را دارند، و پرتوسازی دادهها بر روی این
محورهای جدید کار میکند.
🔻اولین مؤلفه اصلی بیشترین واریانس ممکن در دادهها را شامل میشود و هر مؤلفه بعدی حداکثر واریانس باقیمانده که به مؤلفههای قبلی عمود است را ثبت میکند.
🔻این تکنیک برای فشردهسازی دادهها، حذف نویز و آشکارسازی الگوهای پنهان مؤثر است.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️Principal Components
مؤلفههای اصلی جهتهایی در یک مجموعه داده هستند که در آنها واریانس حداکثر میشود.
🔻در PCA، این مؤلفهها با محاسبه بردارهای ویژه ماتریس کوواریانس دادهها تعیین میشوند.
هر مؤلفه اصلی به مؤلفههای دیگر عمود است و اطمینان میدهد که ویژگیهای متمایز و غیر همبسته دادهها را ثبت میکند.
مؤلفههای اصلی بر اساس مقدار واریانسی که توضیح میدهند مرتب شدهاند، و اولین مؤلفه بیشترین واریانس را توضیح میدهد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
مؤلفههای اصلی جهتهایی در یک مجموعه داده هستند که در آنها واریانس حداکثر میشود.
🔻در PCA، این مؤلفهها با محاسبه بردارهای ویژه ماتریس کوواریانس دادهها تعیین میشوند.
هر مؤلفه اصلی به مؤلفههای دیگر عمود است و اطمینان میدهد که ویژگیهای متمایز و غیر همبسته دادهها را ثبت میکند.
مؤلفههای اصلی بر اساس مقدار واریانسی که توضیح میدهند مرتب شدهاند، و اولین مؤلفه بیشترین واریانس را توضیح میدهد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️Preserving the Variance
در PCA، حفظ واریانس یک هدف کلیدی است. با پرتوسازی دادهها بر روی مؤلفههای اصلی، PCA تضمین میکند که مهمترین تغییرات در نمایش با ابعاد پایینتر حفظ میشوند.
🔻این حفظ واریانس مهم است زیرا به حفظ تمامیت ساختار دادهها کمک میکند و میتواند عملکرد وظایف بعدی مانند طبقهبندی یا رگرسیون را بهبود بخشد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
در PCA، حفظ واریانس یک هدف کلیدی است. با پرتوسازی دادهها بر روی مؤلفههای اصلی، PCA تضمین میکند که مهمترین تغییرات در نمایش با ابعاد پایینتر حفظ میشوند.
🔻این حفظ واریانس مهم است زیرا به حفظ تمامیت ساختار دادهها کمک میکند و میتواند عملکرد وظایف بعدی مانند طبقهبندی یا رگرسیون را بهبود بخشد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
سلام دوستان. وقت همگی بهخیر. 🌱
جلسه پانزدهم باهمخوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقهمند به شرکت در جلسه هستند میتوانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.
https://meet.google.com/zgn-vfgv-ifz
منتظر حضور گرمتان هستیم.✨
جلسه پانزدهم باهمخوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقهمند به شرکت در جلسه هستند میتوانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.
https://meet.google.com/zgn-vfgv-ifz
منتظر حضور گرمتان هستیم.✨
Google
Real-time meetings by Google. Using your browser, share your video, desktop, and presentations with teammates and customers.
با تشکر از آقای حمید خوئینی و آقای برزان حیاتی بابت ارائه خوبی که داشتند.✨
جلسهی بعد (آخرین جلسه پارت اول کتاب)، ۱۴ شهریور ماه، در خدمت آقای معین زیدانلو و آقای محمدحسین سلیمانی هستیم تا از صفحه ۲۷۹ تا آخر فصل کتاب رو ارائه بدهند.
پوستر جلسه، متعاقباً ارسال خواهد شد. 🌿
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
جلسهی بعد (آخرین جلسه پارت اول کتاب)، ۱۴ شهریور ماه، در خدمت آقای معین زیدانلو و آقای محمدحسین سلیمانی هستیم تا از صفحه ۲۷۹ تا آخر فصل کتاب رو ارائه بدهند.
پوستر جلسه، متعاقباً ارسال خواهد شد. 🌿
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
💡جلسه شانزدهم (آخرین جلسه پارت اول) باهمخوانی کتاب
“Hands-on Machine Learning”
موضوعاتی که در این جلسه بهشون میپردازیم:
■Gaussian Mixtures
Using Gaussian Mixtures for Anomaly Detection
Selecting the Number of Clusters
Bayesian Gaussian Mixture Models
Other Algorithms for Anomaly and Novelty Detection
🗓تاریخ: چهارشنبه، ۱۴ شهریور
⏰زمان: ۲۱:٠٠
🔗لینک بستر آنلاین در کانال ارسال میشود.
✨منتظر حضور گرمتان هستیم!
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
“Hands-on Machine Learning”
موضوعاتی که در این جلسه بهشون میپردازیم:
■Gaussian Mixtures
Using Gaussian Mixtures for Anomaly Detection
Selecting the Number of Clusters
Bayesian Gaussian Mixture Models
Other Algorithms for Anomaly and Novelty Detection
🗓تاریخ: چهارشنبه، ۱۴ شهریور
⏰زمان: ۲۱:٠٠
🔗لینک بستر آنلاین در کانال ارسال میشود.
✨منتظر حضور گرمتان هستیم!
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
سلام دوستان. وقت همگی بهخیر. 🌱
جلسه شانزدهم (آخرین جلسه پارت اول کتاب) باهمخوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقهمند به شرکت در جلسه هستند میتوانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.
https://meet.google.com/zgn-vfgv-ifz
منتظر حضور گرمتان هستیم.✨
جلسه شانزدهم (آخرین جلسه پارت اول کتاب) باهمخوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقهمند به شرکت در جلسه هستند میتوانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.
https://meet.google.com/zgn-vfgv-ifz
منتظر حضور گرمتان هستیم.✨
Google
Real-time meetings by Google. Using your browser, share your video, desktop, and presentations with teammates and customers.
سلام بههمگی. وقتتون بهخیر.🌱
سری جلسات پارت اول باهمخوانی کتاب Hands-on machine learning به پایان رسید.
از شما دوستان گرامی کمال تشکر را داریم که همراهیمون کردین و بهمون در این راه انگیزه دادین!✨
به زودی برمیگردیم و با کمک شما عزیزان، باهمخوانی پارت دوم کتاب را نیز آغاز خواهیم کرد.
📌همچنین خوشحال میشیم اگر پیشنهاد و انتقادی از جلسات دارین به آیدی زیر منتقل کنید و به ما در بهتر شدن مسیر یادگیری کمک کنید.
@Tensorphilia_Support
دوستدار شما
تنسورفیلیا
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
سری جلسات پارت اول باهمخوانی کتاب Hands-on machine learning به پایان رسید.
از شما دوستان گرامی کمال تشکر را داریم که همراهیمون کردین و بهمون در این راه انگیزه دادین!✨
به زودی برمیگردیم و با کمک شما عزیزان، باهمخوانی پارت دوم کتاب را نیز آغاز خواهیم کرد.
📌همچنین خوشحال میشیم اگر پیشنهاد و انتقادی از جلسات دارین به آیدی زیر منتقل کنید و به ما در بهتر شدن مسیر یادگیری کمک کنید.
@Tensorphilia_Support
دوستدار شما
تنسورفیلیا
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️Principal Components
مؤلفههای اصلی، جهتهایی در یک مجموعه داده هستند که در آنها واریانس حداکثر میشود.
🔻در PCA، این مؤلفهها با محاسبه بردارهای ویژه ماتریس کوواریانس دادهها تعیین میشوند.
هر مؤلفه اصلی به مؤلفههای دیگر عمود است و اطمینان میدهد که ویژگیهای متمایز و غیر همبسته دادهها را ثبت میکند.
🔻مؤلفههای اصلی بر اساس مقدار واریانسی که توضیح میدهند مرتب شدهاند، و اولین مؤلفه بیشترین واریانس را توضیح میدهد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
مؤلفههای اصلی، جهتهایی در یک مجموعه داده هستند که در آنها واریانس حداکثر میشود.
🔻در PCA، این مؤلفهها با محاسبه بردارهای ویژه ماتریس کوواریانس دادهها تعیین میشوند.
هر مؤلفه اصلی به مؤلفههای دیگر عمود است و اطمینان میدهد که ویژگیهای متمایز و غیر همبسته دادهها را ثبت میکند.
🔻مؤلفههای اصلی بر اساس مقدار واریانسی که توضیح میدهند مرتب شدهاند، و اولین مؤلفه بیشترین واریانس را توضیح میدهد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️Projecting Down to d Dimensions
پرتوسازی به d بعد در PCA شامل انتخاب d مؤلفه اصلی بالا و تبدیل دادههای اصلی بر روی این مؤلفهها است.
🔻این فرآیند ابعاد دادهها را از تعداد ویژگیهای اصلی به d کاهش میدهد، در حالی که تا حد ممکن واریانس حفظ میشود. این میتواند منجر به ذخیرهسازی کارآمدتر و محاسبات سریعتر شود بدون این که به طور قابل توجهی قدرت نمایشی دادهها کاهش یابد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
پرتوسازی به d بعد در PCA شامل انتخاب d مؤلفه اصلی بالا و تبدیل دادههای اصلی بر روی این مؤلفهها است.
🔻این فرآیند ابعاد دادهها را از تعداد ویژگیهای اصلی به d کاهش میدهد، در حالی که تا حد ممکن واریانس حفظ میشود. این میتواند منجر به ذخیرهسازی کارآمدتر و محاسبات سریعتر شود بدون این که به طور قابل توجهی قدرت نمایشی دادهها کاهش یابد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube