▫️Choosing the Right Number of Dimensions
انتخاب تعداد مناسب ابعاد برای کاهش شامل متعادل کردن مبادله بین فشردهسازی دادهها و از دست دادن اطلاعات است.
🔻در PCA، این معمولاً با بررسی نسبت واریانس توضیحدادهشده و انتخاب تعداد مؤلفههایی که بخش قابل توجهی از واریانس را ثبت میکنند انجام میشود. تکنیکهایی مانند نمودار scree و نمودار واریانس تجمعی به طور متداول برای تجسم این مبادله و اتخاذ تصمیمات آگاهانه استفاده میشوند.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
انتخاب تعداد مناسب ابعاد برای کاهش شامل متعادل کردن مبادله بین فشردهسازی دادهها و از دست دادن اطلاعات است.
🔻در PCA، این معمولاً با بررسی نسبت واریانس توضیحدادهشده و انتخاب تعداد مؤلفههایی که بخش قابل توجهی از واریانس را ثبت میکنند انجام میشود. تکنیکهایی مانند نمودار scree و نمودار واریانس تجمعی به طور متداول برای تجسم این مبادله و اتخاذ تصمیمات آگاهانه استفاده میشوند.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️PCA for Compression
میتواند برای فشردهسازی دادهها با کاهش تعداد ابعاد در حالی که مهمترین اطلاعات حفظ میشوند استفاده شود. با پرتوسازی دادهها بر روی چند مؤلفه اصلی، میتوان با حداقل از دست دادن اطلاعات، فشردهسازی دادههای قابل توجهی را بهدست آورد.
🔻این خصوصاً در کاربردهایی مانند فشردهسازی تصاویر که کاهش فضای ذخیرهسازی بدون به خطر انداختن کیفیت ضروری است، مفید است.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
میتواند برای فشردهسازی دادهها با کاهش تعداد ابعاد در حالی که مهمترین اطلاعات حفظ میشوند استفاده شود. با پرتوسازی دادهها بر روی چند مؤلفه اصلی، میتوان با حداقل از دست دادن اطلاعات، فشردهسازی دادههای قابل توجهی را بهدست آورد.
🔻این خصوصاً در کاربردهایی مانند فشردهسازی تصاویر که کاهش فضای ذخیرهسازی بدون به خطر انداختن کیفیت ضروری است، مفید است.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️Randomized PCA
یک نوع از PCA است که از الگوریتمهای تصادفی برای تقریب مؤلفههای اصلی استفاده میکند. این روش از لحاظ محاسباتی کارآمدتر از PCA سنتی است، بهویژه برای مجموعه دادههای بزرگ با ویژگیهای زیاد.
🔻این برای مواقعی مناسب است که سرعت بیشتر از دقت مطلق اهمیت دارد و راهحلی مقیاسپذیر برای کاهش ابعاد ارائه میدهد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
یک نوع از PCA است که از الگوریتمهای تصادفی برای تقریب مؤلفههای اصلی استفاده میکند. این روش از لحاظ محاسباتی کارآمدتر از PCA سنتی است، بهویژه برای مجموعه دادههای بزرگ با ویژگیهای زیاد.
🔻این برای مواقعی مناسب است که سرعت بیشتر از دقت مطلق اهمیت دارد و راهحلی مقیاسپذیر برای کاهش ابعاد ارائه میدهد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️Incremental PCA
دادهها را به صورت مینیدستهها (mini-batches) پردازش میکند به جای اینکه همه دادهها را به یکباره پردازش کند.
🔻این روش برای مدیریت مجموعه دادههای بسیار بزرگ که در حافظه جا نمیشوند مفید است. Incremental PCA را میتوان در Scikit-Learn پیادهسازی کرد و امکان آموزش پیوسته با ورود دادههای جدید را فراهم میکند، که آن را برای سناریوهای یادگیری آنلاین و برنامههای زمان واقعی ایدهآل میکند.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
دادهها را به صورت مینیدستهها (mini-batches) پردازش میکند به جای اینکه همه دادهها را به یکباره پردازش کند.
🔻این روش برای مدیریت مجموعه دادههای بسیار بزرگ که در حافظه جا نمیشوند مفید است. Incremental PCA را میتوان در Scikit-Learn پیادهسازی کرد و امکان آموزش پیوسته با ورود دادههای جدید را فراهم میکند، که آن را برای سناریوهای یادگیری آنلاین و برنامههای زمان واقعی ایدهآل میکند.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️Random Projection
یک تکنیک کاهش ابعاد است که ابعاد را با پرتوسازی دادهها بر روی یک زیرفضای با ابعاد پایینتر با استفاده از ماتریسهای تصادفی کاهش میدهد. برخلاف PCA که به حفظ حداکثر واریانس ممکن توجه دارد، Random Projection بر حفظ فاصلهها بین نقاط تمرکز دارد.
🔻این روش از لحاظ محاسباتی کارآمد است و به خصوص زمانی که سرعت اهمیت بیشتری نسبت به حفظ دقیق واریانس دارد مفید است.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
یک تکنیک کاهش ابعاد است که ابعاد را با پرتوسازی دادهها بر روی یک زیرفضای با ابعاد پایینتر با استفاده از ماتریسهای تصادفی کاهش میدهد. برخلاف PCA که به حفظ حداکثر واریانس ممکن توجه دارد، Random Projection بر حفظ فاصلهها بین نقاط تمرکز دارد.
🔻این روش از لحاظ محاسباتی کارآمد است و به خصوص زمانی که سرعت اهمیت بیشتری نسبت به حفظ دقیق واریانس دارد مفید است.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️LLE (Locally Linear Embedding)
یک تکنیک یادگیری مانفولد است که برای کاهش ابعاد غیرخطی استفاده میشود. LLE با حفظ روابط محلی نقاط داده در فضای با ابعاد بالا هنگام پرتوسازی آنها به فضای با ابعاد پایینتر کار میکند.
🔻این روش در گشودن مانفولدهای پیچیده مؤثر است و به طور متداول برای تجسم دادهها و استخراج ویژگی در مجموعه دادههای با ابعاد بالا استفاده میشود.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
یک تکنیک یادگیری مانفولد است که برای کاهش ابعاد غیرخطی استفاده میشود. LLE با حفظ روابط محلی نقاط داده در فضای با ابعاد بالا هنگام پرتوسازی آنها به فضای با ابعاد پایینتر کار میکند.
🔻این روش در گشودن مانفولدهای پیچیده مؤثر است و به طور متداول برای تجسم دادهها و استخراج ویژگی در مجموعه دادههای با ابعاد بالا استفاده میشود.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
▫️Other Dimensionality Reduction Techniques
فراتر از PCA و یادگیری مانفولد، تکنیکهای دیگری برای کاهش ابعاد وجود دارند، از جمله
▫️Independent Component Analysis
▫️t-distributed Stochastic Neighbor Embedding
▫️Autoencoders
🔻هر روش دارای نقاط قوت خاص خود است و برای انواع مختلف دادهها و اهداف مناسب است. کاوش در این تکنیکها میتواند درک عمیقتری از ساختار دادههای با ابعاد بالا فراهم کند و عملکرد مدلهای یادگیری ماشین را بهبود بخشد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
فراتر از PCA و یادگیری مانفولد، تکنیکهای دیگری برای کاهش ابعاد وجود دارند، از جمله
▫️Independent Component Analysis
▫️t-distributed Stochastic Neighbor Embedding
▫️Autoencoders
🔻هر روش دارای نقاط قوت خاص خود است و برای انواع مختلف دادهها و اهداف مناسب است. کاوش در این تکنیکها میتواند درک عمیقتری از ساختار دادههای با ابعاد بالا فراهم کند و عملکرد مدلهای یادگیری ماشین را بهبود بخشد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
ویدیوی ضبط شده جلسهی شانزدهم (جلسه آخر) در یوتیوب بارگزاری شده و میتونید به اون دسترسی داشته باشید.
همچنین فایل مطالب ارائه شده در جلسه رو اینجا خواهیم گذاشت تا افرادی که در جلسه حضور نداشتند از مطالب استفاده کنند. ✨
ممنون از همراهی شما.🌱
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
همچنین فایل مطالب ارائه شده در جلسه رو اینجا خواهیم گذاشت تا افرادی که در جلسه حضور نداشتند از مطالب استفاده کنند. ✨
ممنون از همراهی شما.🌱
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
Tensorphilia
Unsupervised Learning Part 2.1.pdf
فایلهای جلسه شانزدهم خدمت شما.✨
سلام دوستان عزیز تنسورفیلیا.✨
اول از همه ممنونیم بابت همراهی شما و امیدواریم که مطالب کانال و ارائهها براتون مفید بوده باشه.
ما برای ادامهی کار دو راه پیشنهادی در نظر گرفتیم و خوشحال میشیم که با نظراتتون به ما در تصمیمگیری کمک کنید.🌱
اول از همه ممنونیم بابت همراهی شما و امیدواریم که مطالب کانال و ارائهها براتون مفید بوده باشه.
ما برای ادامهی کار دو راه پیشنهادی در نظر گرفتیم و خوشحال میشیم که با نظراتتون به ما در تصمیمگیری کمک کنید.🌱
Anonymous Poll
33%
ارائه پارت دوم کتاب (deep learning)
67%
تثبیت مطالب ارائه شده در بخش یک در قالب چندین پروژه machine learning
📌 youtube.com/@MachineLearningStreetTalk
کانال Machine Learning StreetTalk یکی از بهترین کانال های گفت و گو محور با بزرگان این حوزه در یوتیوب!
از گفتوگو با یورگن اشمیدهابر پدر خوانده generative Ai تا تحلیل بررسی همایش NEURIPS2022 !
🌱#معرفی
#MachineLearning
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
کانال Machine Learning StreetTalk یکی از بهترین کانال های گفت و گو محور با بزرگان این حوزه در یوتیوب!
از گفتوگو با یورگن اشمیدهابر پدر خوانده generative Ai تا تحلیل بررسی همایش NEURIPS2022 !
🌱#معرفی
#MachineLearning
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
📌https://youtu.be/UZDiGooFs54?si=nEQCRiGU5LsCKq8P
در سال ۲۰۱۲ مقاله ای با عنوان ImageNet Classification with Deep ConvolutionalNeural Networks منتشر شد که باعث به وجود آمدن انقلابی در دنیای پردازش تصویر و هوش مصنوعی شد که معماری شبکه عصبی آن همانطور که شنیده اید AlexNet نام دارد در این ویدیو این شبکه و نحوه عملکرد به صورت مختصر پرداخته شده است.
#MachineLearning
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
در سال ۲۰۱۲ مقاله ای با عنوان ImageNet Classification with Deep ConvolutionalNeural Networks منتشر شد که باعث به وجود آمدن انقلابی در دنیای پردازش تصویر و هوش مصنوعی شد که معماری شبکه عصبی آن همانطور که شنیده اید AlexNet نام دارد در این ویدیو این شبکه و نحوه عملکرد به صورت مختصر پرداخته شده است.
#MachineLearning
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
📌الگوریتمهای کلاسترینگ
ابزار قدرتمندی برای گروهبندی نقاط داده به خوشههای معنادار بر اساس شباهتهای آنها هستند.
این الگوریتمها در زمینههای مختلفی مانند بخشبندی تصویر، پروفایل مشتری، تشخیص ناهنجاری و موارد دیگر کاربرد دارند.
در ادامه به برخی از الگوریتمهای محبوب کلاسترینگ و کاربردهای متنوع آنها را میپردازیم.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
ابزار قدرتمندی برای گروهبندی نقاط داده به خوشههای معنادار بر اساس شباهتهای آنها هستند.
این الگوریتمها در زمینههای مختلفی مانند بخشبندی تصویر، پروفایل مشتری، تشخیص ناهنجاری و موارد دیگر کاربرد دارند.
در ادامه به برخی از الگوریتمهای محبوب کلاسترینگ و کاربردهای متنوع آنها را میپردازیم.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔸 K-Means Clustering
یک الگوریتم ساده و شهودی است که به طور گسترده مورد استفاده قرار میگیرد.
هدف این الگوریتم تقسیم دادهها به k خوشه است، جایی که k از قبل تعیین شده است. این الگوریتم به طور تکراری نقاط داده را به نزدیکترین مرکز خوشه اختصاص میدهد و مراکز خوشه را بر اساس نقاط اختصاص داده شده به روز رسانی میکند.
▪️مزایا: درک و پیادهسازی آسان، کارآمد از نظر محاسباتی برای مجموعه دادههای بزرگ.
▪️محدودیتها: مستعد گیر افتادن در بهینه محلی، حساس به مکان اولیه مراکز خوشه، و با خوشههای غیرکروی یا خوشههایی با تراکم متغیر مشکل دارد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
یک الگوریتم ساده و شهودی است که به طور گسترده مورد استفاده قرار میگیرد.
هدف این الگوریتم تقسیم دادهها به k خوشه است، جایی که k از قبل تعیین شده است. این الگوریتم به طور تکراری نقاط داده را به نزدیکترین مرکز خوشه اختصاص میدهد و مراکز خوشه را بر اساس نقاط اختصاص داده شده به روز رسانی میکند.
▪️مزایا: درک و پیادهسازی آسان، کارآمد از نظر محاسباتی برای مجموعه دادههای بزرگ.
▪️محدودیتها: مستعد گیر افتادن در بهینه محلی، حساس به مکان اولیه مراکز خوشه، و با خوشههای غیرکروی یا خوشههایی با تراکم متغیر مشکل دارد.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔸غلبه بر محدودیتهای K-Means:
🔹Using clustering for image segmentation
• استفاده از خوشهبندی برای بخشبندی تصویر: K-Means میتواند برای بخشبندی تصاویر با خوشهبندی پیکسلها بر اساس مقادیر رنگ یا شدت آنها مورد استفاده قرار گیرد. این امر امکان شناسایی اشیاء و مناطق در یک تصویر را فراهم میکند.
🔹Clustering for semi-supervised learning:
• خوشهبندی برای یادگیری نیمهنظارتشده: K-Means میتواند برای ایجاد خوشههای اولیه در سناریوهای یادگیری نیمهنظارتشده که در آن برخی از نقاط داده برچسبگذاری شدهاند، مورد استفاده قرار گیرد. این امر میتواند به بهبود عملکرد الگوریتمهای یادگیری نظارتشده بعدی کمک کند.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔹Using clustering for image segmentation
• استفاده از خوشهبندی برای بخشبندی تصویر: K-Means میتواند برای بخشبندی تصاویر با خوشهبندی پیکسلها بر اساس مقادیر رنگ یا شدت آنها مورد استفاده قرار گیرد. این امر امکان شناسایی اشیاء و مناطق در یک تصویر را فراهم میکند.
🔹Clustering for semi-supervised learning:
• خوشهبندی برای یادگیری نیمهنظارتشده: K-Means میتواند برای ایجاد خوشههای اولیه در سناریوهای یادگیری نیمهنظارتشده که در آن برخی از نقاط داده برچسبگذاری شدهاند، مورد استفاده قرار گیرد. این امر میتواند به بهبود عملکرد الگوریتمهای یادگیری نظارتشده بعدی کمک کند.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔸DBSCAN (Density-Based Spatial Clustering of Applications with Noise)
🔹خوشهبندی فضایی مبتنی بر تراکم برنامههای کاربردی با نویز:
▪️ قدرت تراکم: DBSCAN یک الگوریتم خوشهبندی مبتنی بر تراکم است که نقاط دادهای را که به طور متراکم در کنار هم قرار دارند، گروهبندی میکند، در حالی که نویزها را نادیده میگیرد.
▪️مفاهیم کلیدی:
• نقاط اصلی: نقاطی با حداقل تعداد همسایه در شعاع مشخص.
• نقاط مرزی: نقاطی که نقطه اصلی نیستند، اما در همسایگی یک نقطه اصلی قرار دارند.
• نقاط نویز: نقاطی که نه نقطه اصلی هستند و نه نقطه مرزی.
▪️مزایا: میتواند خوشههایی با شکل دلخواه را مدیریت کند، در برابر نویز مقاوم است، نیاز به مشخص کردن تعداد خوشهها از قبل ندارد.
▪️کاربردها: تشخیص ناهنجاریها، کشف خوشههایی با اشکال و اندازههای مختلف، یافتن مناطق پر تراکم در دادهها.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
🔹خوشهبندی فضایی مبتنی بر تراکم برنامههای کاربردی با نویز:
▪️ قدرت تراکم: DBSCAN یک الگوریتم خوشهبندی مبتنی بر تراکم است که نقاط دادهای را که به طور متراکم در کنار هم قرار دارند، گروهبندی میکند، در حالی که نویزها را نادیده میگیرد.
▪️مفاهیم کلیدی:
• نقاط اصلی: نقاطی با حداقل تعداد همسایه در شعاع مشخص.
• نقاط مرزی: نقاطی که نقطه اصلی نیستند، اما در همسایگی یک نقطه اصلی قرار دارند.
• نقاط نویز: نقاطی که نه نقطه اصلی هستند و نه نقطه مرزی.
▪️مزایا: میتواند خوشههایی با شکل دلخواه را مدیریت کند، در برابر نویز مقاوم است، نیاز به مشخص کردن تعداد خوشهها از قبل ندارد.
▪️کاربردها: تشخیص ناهنجاریها، کشف خوشههایی با اشکال و اندازههای مختلف، یافتن مناطق پر تراکم در دادهها.
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
سلام دوستان، وقت بهخیر.✨
جلسات پروژهمحور تنسورفیلیا شروع شد! 🚀
اگر به یادگیری ماشین و دنیای برنامهنویسی علاقهمندید، با شرکت در این جلسات مهارتهای خودتون رو ارتقا بدید.
📝در این جلسات مطالب تئوری که در بخش قبل یاد گرفتیم رو در قالب چند پروژهی سطحبندی شده تمرین میکنیم تا دستمون رو بیشتر به کد آلوده کنیم. :)
از شما هم دعوت میکنیم که با ما در این راه شریک بشین تا در کنار هم مطالب رو تثبیت کنیم.
همچنین کسانی که دستی در کد نویسی دارند و علاقهمندند به عنوان ارائه دهنده در جلسات شرکت کنند، لطفا به آیدی پشتیبانی تنسورفیلیا اطلاع بدهند.
🤖@Tensorphilia_Support
💬لطفا برای ثبتنام و دریافت اطلاعات بیشتر فرم زیر را پر کنید.
-فرم ثبتنام
با احترام
Tensorphilia Team
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube
جلسات پروژهمحور تنسورفیلیا شروع شد! 🚀
اگر به یادگیری ماشین و دنیای برنامهنویسی علاقهمندید، با شرکت در این جلسات مهارتهای خودتون رو ارتقا بدید.
📝در این جلسات مطالب تئوری که در بخش قبل یاد گرفتیم رو در قالب چند پروژهی سطحبندی شده تمرین میکنیم تا دستمون رو بیشتر به کد آلوده کنیم. :)
از شما هم دعوت میکنیم که با ما در این راه شریک بشین تا در کنار هم مطالب رو تثبیت کنیم.
همچنین کسانی که دستی در کد نویسی دارند و علاقهمندند به عنوان ارائه دهنده در جلسات شرکت کنند، لطفا به آیدی پشتیبانی تنسورفیلیا اطلاع بدهند.
🤖@Tensorphilia_Support
💬لطفا برای ثبتنام و دریافت اطلاعات بیشتر فرم زیر را پر کنید.
-فرم ثبتنام
با احترام
Tensorphilia Team
🤖➖➖➖➖➖➖➖➖➖➖
🆔 Telegram | LinkedIn | YouTube