Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
- Telegram Web
Telegram Web
▫️Choosing the Right Number of Dimensions

انتخاب تعداد مناسب ابعاد برای کاهش شامل متعادل کردن مبادله بین فشرده‌سازی داده‌ها و از دست دادن اطلاعات است.
🔻در PCA، این معمولاً با بررسی نسبت واریانس توضیح‌داده‌شده و انتخاب تعداد مؤلفه‌هایی که بخش قابل توجهی از واریانس را ثبت می‌کنند انجام می‌شود. تکنیک‌هایی مانند نمودار scree و نمودار واریانس تجمعی به طور متداول برای تجسم این مبادله و اتخاذ تصمیمات آگاهانه استفاده می‌شوند.

🤖
🆔 Telegram | LinkedIn | YouTube
▫️PCA for Compression

می‌تواند برای فشرده‌سازی داده‌ها با کاهش تعداد ابعاد در حالی که مهم‌ترین اطلاعات حفظ می‌شوند استفاده شود. با پرتوسازی داده‌ها بر روی چند مؤلفه اصلی، می‌توان با حداقل از دست دادن اطلاعات، فشرده‌سازی داده‌های قابل توجهی را به‌دست آورد.
🔻این خصوصاً در کاربردهایی مانند فشرده‌سازی تصاویر که کاهش فضای ذخیره‌سازی بدون به خطر انداختن کیفیت ضروری است، مفید است.

🤖
🆔 Telegram | LinkedIn | YouTube
▫️Randomized PCA

یک نوع از PCA است که از الگوریتم‌های تصادفی برای تقریب مؤلفه‌های اصلی استفاده می‌کند. این روش از لحاظ محاسباتی کارآمدتر از PCA سنتی است، به‌ویژه برای مجموعه داده‌های بزرگ با ویژگی‌های زیاد.
🔻این برای مواقعی مناسب است که سرعت بیشتر از دقت مطلق اهمیت دارد و راه‌حلی مقیاس‌پذیر برای کاهش ابعاد ارائه می‌دهد.

🤖
🆔 Telegram | LinkedIn | YouTube
▫️Incremental PCA

داده‌ها را به صورت مینی‌دسته‌ها (mini-batches) پردازش می‌کند به جای اینکه همه داده‌ها را به یکباره پردازش کند.
🔻این روش برای مدیریت مجموعه داده‌های بسیار بزرگ که در حافظه جا نمی‌شوند مفید است. Incremental PCA را می‌توان در Scikit-Learn پیاده‌سازی کرد و امکان آموزش پیوسته با ورود داده‌های جدید را فراهم می‌کند، که آن را برای سناریوهای یادگیری آنلاین و برنامه‌های زمان واقعی ایده‌آل می‌کند.

🤖
🆔 Telegram | LinkedIn | YouTube
▫️Random Projection

یک تکنیک کاهش ابعاد است که ابعاد را با پرتوسازی داده‌ها بر روی یک زیرفضای با ابعاد پایین‌تر با استفاده از ماتریس‌های تصادفی کاهش می‌دهد. برخلاف PCA که به حفظ حداکثر واریانس ممکن توجه دارد، Random Projection بر حفظ فاصله‌ها بین نقاط تمرکز دارد.
🔻این روش از لحاظ محاسباتی کارآمد است و به خصوص زمانی که سرعت اهمیت بیشتری نسبت به حفظ دقیق واریانس دارد مفید است.

🤖
🆔 Telegram | LinkedIn | YouTube
▫️LLE (Locally Linear Embedding)

یک تکنیک یادگیری مانفولد است که برای کاهش ابعاد غیرخطی استفاده می‌شود. LLE با حفظ روابط محلی نقاط داده در فضای با ابعاد بالا هنگام پرتوسازی آن‌ها به فضای با ابعاد پایین‌تر کار می‌کند.
🔻این روش در گشودن مانفولدهای پیچیده مؤثر است و به طور متداول برای تجسم داده‌ها و استخراج ویژگی در مجموعه داده‌های با ابعاد بالا استفاده می‌شود.

🤖
🆔 Telegram | LinkedIn | YouTube
▫️Other Dimensionality Reduction Techniques

فراتر از PCA و یادگیری مانفولد، تکنیک‌های دیگری برای کاهش ابعاد وجود دارند، از جمله
▫️Independent Component Analysis
▫️t-distributed Stochastic Neighbor Embedding
▫️Autoencoders
🔻هر روش دارای نقاط قوت خاص خود است و برای انواع مختلف داده‌ها و اهداف مناسب است. کاوش در این تکنیک‌ها می‌تواند درک عمیق‌تری از ساختار داده‌های با ابعاد بالا فراهم کند و عملکرد مدل‌های یادگیری ماشین را بهبود بخشد.

🤖
🆔 Telegram | LinkedIn | YouTube
ویدیوی ضبط شده جلسه‌ی شانزدهم (جلسه آخر) در یوتیوب بارگزاری شده و می‌تونید به اون دسترسی داشته باشید.

همچنین فایل مطالب ارائه شده در جلسه رو اینجا خواهیم گذاشت تا افرادی که در جلسه حضور نداشتند از مطالب استفاده کنند.

ممنون از همراهی شما.🌱

🤖
🆔 Telegram | LinkedIn | YouTube
Tensorphilia
Unsupervised Learning Part 2.1.pdf
فایل‌های جلسه شانزدهم خدمت شما.
سلام دوستان عزیز تنسورفیلیا.
اول از همه ممنونیم بابت همراهی شما و امیدواریم که مطالب کانال و ارائه‌ها براتون مفید بوده باشه.
ما برای ادامه‌ی کار دو راه پیشنهادی در نظر گرفتیم و خوشحال می‌شیم که با نظراتتون به ما در تصمیم‌گیری کمک کنید.🌱
Anonymous Poll
33%
ارائه پارت دوم کتاب (deep learning)
67%
تثبیت مطالب ارائه شده در بخش یک در قالب چندین پروژه machine learning
📌youtube.com/@MachineLearningStreetTalk
کانال Machine Learning StreetTalk یکی از بهترین کانال های گفت و گو محور با بزرگان این حوزه در یوتیوب!
از گفت‌وگو با یورگن اشمیدهابر پدر خوانده generative Ai تا تحلیل بررسی همایش NEURIPS2022 !

🌱#معرفی
#MachineLearning
🤖
🆔 Telegram | LinkedIn | YouTube
📌https://youtu.be/UZDiGooFs54?si=nEQCRiGU5LsCKq8P

در سال ۲۰۱۲ مقاله ای با عنوان ImageNet Classification with Deep ConvolutionalNeural Networks منتشر شد که باعث به وجود آمدن انقلابی در دنیای پردازش تصویر و هوش مصنوعی شد که معماری شبکه عصبی آن همانطور که شنیده اید AlexNet نام دارد در این ویدیو این شبکه و نحوه عملکرد به صورت مختصر پرداخته شده است.


#MachineLearning
🤖
🆔 Telegram | LinkedIn | YouTube
Tensorphilia
ادامه‌ی پست‌های مروری:
ادامه‌ی پست‌های مروری:
📌الگوریتم‌های کلاسترینگ
ابزار قدرتمندی برای گروه‌بندی نقاط داده به خوشه‌های معنادار بر اساس شباهت‌های آنها هستند.
این الگوریتم‌ها در زمینه‌های مختلفی مانند بخش‌بندی تصویر، پروفایل مشتری، تشخیص ناهنجاری و موارد دیگر کاربرد دارند.
در ادامه به برخی از الگوریتم‌های محبوب کلاسترینگ و کاربردهای متنوع آنها را می‌پردازیم.
🤖
🆔 Telegram | LinkedIn | YouTube
🔸 K-Means Clustering

یک الگوریتم ساده و شهودی است که به طور گسترده مورد استفاده قرار می‌گیرد.
هدف این الگوریتم تقسیم داده‌ها به k خوشه است، جایی که k از قبل تعیین شده است. این الگوریتم به طور تکراری نقاط داده را به نزدیک‌ترین مرکز خوشه اختصاص می‌دهد و مراکز خوشه را بر اساس نقاط اختصاص داده شده به روز رسانی می‌کند.

▪️مزایا: درک و پیاده‌سازی آسان، کارآمد از نظر محاسباتی برای مجموعه داده‌های بزرگ.

▪️محدودیت‌ها: مستعد گیر افتادن در بهینه محلی، حساس به مکان اولیه مراکز خوشه، و با خوشه‌های غیرکروی یا خوشه‌هایی با تراکم متغیر مشکل دارد.
🤖
🆔 Telegram | LinkedIn | YouTube
🔸غلبه بر محدودیت‌های K-Means:

🔹Using clustering for image segmentation
• استفاده از خوشه‌بندی برای بخش‌بندی تصویر: K-Means می‌تواند برای بخش‌بندی تصاویر با خوشه‌بندی پیکسل‌ها بر اساس مقادیر رنگ یا شدت آنها مورد استفاده قرار گیرد. این امر امکان شناسایی اشیاء و مناطق در یک تصویر را فراهم می‌کند.

🔹Clustering for semi-supervised learning:
• خوشه‌بندی برای یادگیری نیمه‌نظارت‌شده: K-Means می‌تواند برای ایجاد خوشه‌های اولیه در سناریوهای یادگیری نیمه‌نظارت‌شده که در آن برخی از نقاط داده برچسب‌گذاری شده‌اند، مورد استفاده قرار گیرد. این امر می‌تواند به بهبود عملکرد الگوریتم‌های یادگیری نظارت‌شده بعدی کمک کند.

🤖
🆔 Telegram | LinkedIn | YouTube
🔸DBSCAN (Density-Based Spatial Clustering of Applications with Noise)

🔹خوشه‌بندی فضایی مبتنی بر تراکم برنامه‌های کاربردی با نویز:

▪️ قدرت تراکم: DBSCAN یک الگوریتم خوشه‌بندی مبتنی بر تراکم است که نقاط داده‌ای را که به طور متراکم در کنار هم قرار دارند، گروه‌بندی می‌کند، در حالی که نویزها را نادیده می‌گیرد.
▪️مفاهیم کلیدی:
نقاط اصلی: نقاطی با حداقل تعداد همسایه در شعاع مشخص.
• نقاط مرزی: نقاطی که نقطه اصلی نیستند، اما در همسایگی یک نقطه اصلی قرار دارند.
نقاط نویز: نقاطی که نه نقطه اصلی هستند و نه نقطه مرزی.
▪️مزایا: می‌تواند خوشه‌هایی با شکل دلخواه را مدیریت کند، در برابر نویز مقاوم است، نیاز به مشخص کردن تعداد خوشه‌ها از قبل ندارد.
▪️کاربردها: تشخیص ناهنجاری‌ها، کشف خوشه‌هایی با اشکال و اندازه‌های مختلف، یافتن مناطق پر تراکم در داده‌ها.
🤖
🆔 Telegram | LinkedIn | YouTube
سلام دوستان، وقت به‌خیر.

جلسات پر‌وژه‌محور تنسورفیلیا شروع شد! 🚀

اگر به یادگیری ماشین و دنیای برنامه‌نویسی علاقه‌مندید، با شرکت در این جلسات مهارت‌های خودتون رو ارتقا بدید.

📝در این جلسات مطالب تئوری که در بخش قبل یاد گرفتیم رو در قالب چند پروژه‌ی سطح‌بندی شده تمرین می‌کنیم تا دستمون رو بیش‌تر به کد آلوده کنیم. :)

از شما هم دعوت می‌کنیم که با ما در این راه شریک بشین تا در کنار هم مطالب رو تثبیت کنیم.

همچنین کسانی که دستی در کد نویسی دارند و علاقه‌مندند به عنوان ارائه دهنده در جلسات شرکت کنند، لطفا به آیدی پشتیبانی تنسورفیلیا اطلاع بدهند.

🤖@Tensorphilia_Support

💬لطفا برای ثبت‌نام و دریافت اطلاعات بیشتر فرم زیر را پر کنید.
-فرم ثبت‌نام

با احترام
Tensorphilia Team

🤖
🆔 Telegram | LinkedIn | YouTube
2024/10/07 15:25:05
Back to Top
HTML Embed Code: