Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
263 - Telegram Web
Telegram Web
▫️PCA (Principal Component Analysis)

یکی از پرکاربردترین روش‌ها برای کاهش ابعاد است. این روش با شناسایی مؤلفه‌های اصلی، که جهت‌هایی هستند که داده‌ها در آن‌ها بیشترین واریانس را دارند، و پرتوسازی داده‌ها بر روی این
محورهای جدید کار می‌‌کند.

🔻اولین مؤلفه اصلی بیشترین واریانس ممکن در داده‌ها را شامل می‌شود و هر مؤلفه بعدی حداکثر واریانس باقی‌مانده که به مؤلفه‌های قبلی عمود است را ثبت می‌کند.

🔻این تکنیک برای فشرده‌سازی داده‌ها، حذف نویز و آشکارسازی الگوهای پنهان مؤثر است.

🤖
🆔 Telegram | LinkedIn | YouTube
▫️Principal Components

مؤلفه‌های اصلی جهت‌هایی در یک مجموعه داده هستند که در آن‌ها واریانس حداکثر می‌شود.

🔻در PCA، این مؤلفه‌ها با محاسبه بردارهای ویژه ماتریس کوواریانس داده‌ها تعیین می‌شوند.
هر مؤلفه اصلی به مؤلفه‌های دیگر عمود است و اطمینان می‌دهد که ویژگی‌های متمایز و غیر همبسته داده‌ها را ثبت می‌کند.
مؤلفه‌های اصلی بر اساس مقدار واریانسی که توضیح می‌دهند مرتب شده‌اند، و اولین مؤلفه بیشترین واریانس را توضیح می‌دهد.

🤖
🆔 Telegram | LinkedIn | YouTube
▫️Preserving the Variance

در PCA، حفظ واریانس یک هدف کلیدی است. با پرتوسازی داده‌ها بر روی مؤلفه‌های اصلی، PCA تضمین می‌کند که مهم‌ترین تغییرات در نمایش با ابعاد پایین‌تر حفظ می‌شوند.

🔻این حفظ واریانس مهم است زیرا به حفظ تمامیت ساختار داده‌ها کمک می‌کند و می‌تواند عملکرد وظایف بعدی مانند طبقه‌بندی یا رگرسیون را بهبود بخشد.

🤖
🆔 Telegram | LinkedIn | YouTube
سلام دوستان. وقت همگی به‌خیر. 🌱

جلسه پانزدهم باهم‌خوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقه‌مند به شرکت در جلسه هستند می‌توانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.

https://meet.google.com/zgn-vfgv-ifz

منتظر حضور گرمتان هستیم.
با تشکر از آقای حمید خوئینی و آقای برزان حیاتی بابت ارائه خوبی که داشتند.

جلسه‌ی بعد (آخرین جلسه پارت اول کتاب)، ۱۴ شهریور ماه، در خدمت آقای معین زیدانلو و آقای محمدحسین سلیمانی هستیم تا از صفحه ۲۷۹ تا آخر فصل کتاب رو ارائه بدهند.

پوستر جلسه، متعاقباً ارسال خواهد شد. 🌿
🤖
🆔 Telegram | LinkedIn | YouTube
ویدیوی ضبط شده جلسه‌ی پانزدهم در یوتیوب بارگزاری شده و می‌تونید به اون دسترسی داشته باشید.

همچنین فایل مطالب ارائه شده در جلسه رو اینجا خواهیم گذاشت تا افرادی که در جلسه حضور نداشتند از مطالب استفاده کنند.

ممنون از همراهی شما.🌱

🤖
🆔 Telegram | LinkedIn | YouTube
فایل‌های جلسه پانزدهم خدمت شما.
💡جلسه شانزدهم (آخرین جلسه پارت اول) باهم‌خوانی کتاب
“Hands-on Machine Learning”

موضوعاتی که در این جلسه بهشون می‌پردازیم:

Gaussian Mixtures
Using Gaussian Mixtures for Anomaly Detection
Selecting the Number of Clusters
Bayesian Gaussian Mixture Models
Other Algorithms for Anomaly and Novelty Detection

🗓تاریخ: چهارشنبه، ۱۴ شهریور
زمان: ۲۱:٠٠
🔗لینک بستر آنلاین در کانال ارسال می‌شود.


منتظر حضور گرمتان هستیم!

🤖
🆔 Telegram | LinkedIn | YouTube
سلام دوستان. وقت همگی به‌خیر. 🌱

جلسه شانزدهم (آخرین جلسه پارت اول کتاب) باهم‌خوانی کتاب Hands-on machine learning ، امشب ساعت ۲۱:٠٠ برگزار خواهد شد.
دوستانی که علاقه‌مند به شرکت در جلسه هستند می‌توانند از ساعت ۲۱ جهت ورود به بستر از طریق لینک زیر اقدام کنند.

https://meet.google.com/zgn-vfgv-ifz

منتظر حضور گرمتان هستیم.
با تشکر از آقای معین زیدانلو و آقای محمدحسین سلیمانی بابت ارائه خوبی که داشتند.

📌همچنین ویدیو ریکورد این جلسه به‌همراه فایل های آن را به زودی در کانال قرار خواهیم داد.

🤖
🆔 Telegram | LinkedIn | YouTube
سلام به‌همگی. وقتتون به‌خیر.🌱

سری جلسات پارت اول باهم‌خوانی کتاب Hands-on machine learning به پایان رسید.
از شما دوستان گرامی کمال تشکر را داریم که همراهیمون کردین و بهمون در این راه انگیزه دادین!
به زودی برمی‌گردیم و با کمک شما عزیزان، باهم‌خوانی پارت دوم کتاب را نیز آغاز خواهیم کرد.

📌همچنین خوش‌حال میشیم اگر پیشنهاد و انتقادی از جلسات دارین به آیدی زیر منتقل کنید و به ما در بهتر شدن مسیر یادگیری کمک کنید.
@Tensorphilia_Support

دوستدار شما
تنسورفیلیا
🤖
🆔 Telegram | LinkedIn | YouTube
Tensorphilia
ادامه‌ی پست‌های مروری:
ادامه‌ی پست‌های مروری:
▫️Principal Components

مؤلفه‌های اصلی، جهت‌هایی در یک مجموعه داده هستند که در آن‌ها واریانس حداکثر می‌شود.
🔻در PCA، این مؤلفه‌ها با محاسبه بردارهای ویژه ماتریس کوواریانس داده‌ها تعیین می‌شوند.
هر مؤلفه اصلی به مؤلفه‌های دیگر عمود است و اطمینان می‌دهد که ویژگی‌های متمایز و غیر همبسته داده‌ها را ثبت می‌کند.
🔻مؤلفه‌های اصلی بر اساس مقدار واریانسی که توضیح می‌دهند مرتب شده‌اند، و اولین مؤلفه بیشترین واریانس را توضیح می‌دهد.

🤖
🆔 Telegram | LinkedIn | YouTube
▫️Projecting Down to d Dimensions

پرتوسازی به d بعد در PCA شامل انتخاب d مؤلفه اصلی بالا و تبدیل داده‌های اصلی بر روی این مؤلفه‌ها است.
🔻این فرآیند ابعاد داده‌ها را از تعداد ویژگی‌های اصلی به d کاهش می‌دهد، در حالی که تا حد ممکن واریانس حفظ می‌شود. این می‌تواند منجر به ذخیره‌سازی کارآمدتر و محاسبات سریع‌تر شود بدون این که به طور قابل توجهی قدرت نمایشی داده‌ها کاهش یابد.

🤖
🆔 Telegram | LinkedIn | YouTube
2024/10/07 17:30:56
Back to Top
HTML Embed Code: