Telegram Web
یک لایبرری عالی از مدل‌های سگمنتیشن

این لایبرری که پایتورچی هست، مدل‌های خوبی از سگمنیشن تصاویر رو آماده کرده. هرکدوم از مدل‌ها میتونن بکبون‌های مختلفی داشته باشن.

مدل‌ها:
Unet
Unet++
MAnet
Linknet
FPN
PSPNet
PAN
DeepLabV3
DeepLabV3+

این هم لینک گیتهاب:
https://github.com/qubvel/segmentation_models.pytorch

@pytorch_howsam
سلام
عیدتون مبارک 🥳

اسم کتاب رو ببینید و عشق کنید! فقط پیش‌پردازش...

https://www.amazon.com/Hands-Data-Preprocessing-Python-effectively/dp/1801072132

نگاهی به فهرست مطالب هم انداختیم، خوب بود. نویسنده هم روی جعفری هستن. در صفحه تقدیم، به زبان فارسی کتاب رو به پدر و مادرشون تقدیم کردن. 🙃

راستی، اگه شما هم تا الان دیتاستی یا کدی در گیتهاب آماده کردید، آدرسش رو برای ما دایرکت کنید. ممکنه اینجا معرفی کنیم. فقط خواهشا...

@pytorch_howsam
اگه داکیومنتت رو با وُرد مینویسی، میتونی با نرم‌افزار مایکروسافت ویزیو (Visio) به راحتی شکل‌های مربوط به دیپ لرنینگ رو بکشی. اینم یه نمونه!

@pytorch_howsam
تصویری که مشاهده ميکنيد کارنامه اعمال کسی هست که تنها یک سال توی کگل فعالیت داشته. در یک وبلاگ اومده درمورد تجارب خودش گفته. مسابقه‌هایی که شرکت کرده و...
https://amontgomerie.github.io/2022/02/10/kaggle-journey.html
چطوری توی پایتورچ مدلم رو فریز کنم؟

به تصویر نگاه کن؛ مدل vgg رو لود کردیم. بعدش با یک حلقه ساده همه لایه‌ها رو فریز کردیم. همین الان کولب رو باز کن و اینو تمرین کن!

میخوای فقط بعضی لایه‌ها رو فریز کنی؟ خب اونم ساده هست. اونم بعدا میگیم بهتون...

@pytorch_howsam
💣 یک خبر داغ از هوش مصنوعی 🔥
|
خب میدونید که AI یعنی Artificial Intelligence یا همون هوش مصنوعی. اما AGI چیه؟ بیایید تعریف AGI رو از زبان ویکی‌پدیا بخونیم:
Artificial general intelligence (AGI) is the ability of an intelligent agent to understand or learn any intellectual task that a human being can.
یعنی AGI حالت عام‌تر AI هست و عامل یا موجود هوشمند (Agent) بتونه هرکاری رو بفهمه و یاد بگیره. خب یعنی چی؟

ببینید، ما تا الان با یادگیری عمیق اینطوری کار کردیم که برای هر کاری (تسکی) یک شبکه آموزش دادیم. یک شبکه برای تشخیص اشیا، یکی برای ترکینگ، یکی برای زبان، یکی برای صوت و ... اصلا شاید همه اینها با ترنسفورمر با یک ساختار یکسان باشن، ولی وزن‌هاشون باهم فرق میکنه. قبول دارید؟ روی هر تسک جداگانه شبکه آموزش دیده و وزن‌ها تغییر کرده. خب؟!

اما ما میخواییم همه این کارها رو یک شبکه بیاد انجام بده. یعنی یک ترنسفورمر با یک وزن یکسان برای همه کارها! همین ترنسفورمر با وزن مشخص، زبان رو بفهمه، تصویر رو بفهمه و ...

دیپ‌مایند گوگل، GATO رو معرفی کرده که اینکارو میکنه! 😬 میتونه بازی کنه، بازوی رباتیک بشه، تصویر رو بفهمه و کپشن بزنه و خیلی کارهای دیگه!

دوست داشتید این ویدئوی دو سه دقیقه‌ای در یوتوب رو ببینید: ویدئو
همچنین، اگه خیلی دوست داشتید، مقالش رو هم بخونید: مقاله

@pytorch_howsam
#سوال
سلام
مقالات کنفرانسی هم مثل ژورنالها دارای ضریب تاثیر و رتبه بندی هستند؟چگونه می توانیم بفهمیم رتبه و ضریب تاثیرشان چند هست؟

#جواب
کنفرانس‌ها هم رنکنیگ دارن. نام کنفرانس رو در سایت زیر بنویسید تا بهتون نشون میده:
http://www.conferenceranks.com/

@pytorch_howsam
اگر به یادگیری تقویتی علاقمند باشین و منابع رو پیگیری کرده باشین، متوجه می شین که منابع خوب برای یادگیری تقویتی کم پیدا می شه
این کتاب اما از دو جهت به سایر منابع ارجحیت داره💣💣
اول این که از پایه ای ترین مفاهیم شروع می کنه و به الگوریتم های پیشرفته یادگیری تقویتی عمیق برای محیط های پیوسته و گسسته می رسه
و دوم این که تمام کدهای کتاب کاملا خط به خط توضیح داده شده و با پایتورچ هم کد نویسی انجام شده 🎯🎯
تنها پیش نیاز مطالعه کتاب ، آگاهی از مفاهیم مقدماتی از ماشین لرنینگ و دیپ لرنینگه و آشنایی با پایتورچ
از مطالعه این کتاب حسابی لذت ببرید💥💫💫💥
This media is not supported in your browser
VIEW IN TELEGRAM
با Text to Image Generation آشنا هستید؟

این روزها مورد توجه هست. اینکه با توجه به یک متن ورودی، یک تصویر توسط هوش مصنوعی ساخته بشه. شاید تصاویری از Dall.E دیده باشید. اگر ندیدید، به اینستاگرام هوسم سر بزنید، آخرین پستش همین موضوع هست.
https://www.instagram.com/howsam_org/

اما الان میخواییم درباره یک موضوع جالب‌تر صحبت کنیم! Text to Video Generation
از روی متن یک ویدئو ساخته بشه که واقعا جذابه. مقاله‌ای با عنوان زیر با استفاده ترنسفورمرهای دیوانه اومده اینکار رو انجام داده.
CogVideo: Large-scale Pretraining for Text-to-Video Generation via Transformers

ویدئوی بالا هم نمونه‌هایی از خروجی کار رو نشون میده. فعلا ویدئوها کوتاه هستن و ضعیف! اما احتمالا به زودی نسخه‌های باکیفیت‌ترش رو خواهیم دید. 😊

کدهای این مقاله قرار هست منتشر بشه. فعلا لینک گیتهابش رو گذاشتن ولی کدها منتشر نشده.
https://github.com/thudm/cogvideo

@pytorch_howsam
سلام سلام
جکس (JAX) رو میشناسید؟ بله، همون کتابخونه‌ای که گوگل ارائه کرده.

جدیدا فیسبوک هم در سایت پایتورچ گفته:
We’re excited to announce the first beta release of functorch. Heavily inspired by Google JAX, functorch is a library that adds composable function transforms to PyTorch.

بیایید یک مثال از مشتق مرتبه اول و دوم توی فانکتورچ ببینیم:
from functorch import grad
x = torch.randn([])

# First-order gradients
cos_x = grad(lambda x: torch.sin(x))(x)

# Second-order gradients
neg_sin_x = grad(grad(lambda x: torch.sin(x)))(x)

یک دستور ساده grad و مشتق‌گیری به سادگی آب خوردن!

فان: گیمرها میگن کاراکتر توی تصویر بالا جکس هست! چون توی Mortal Kombat یه شخصیتی وجود داره به نام Jax! 😁 فیسبوک باید اسم بهتری انتخاب میکرد! فانکتورچ به درد نمیخوره! مثلا Scorpion! 😅

@pytorch_howsam
💣 دوره یادگیری عمیق 2022 هوسم 🔥

🛎 ثبت‌نام دوره یادگیری عمیق با 40 درصد تخفیف برای 15 نفر اول شروع شد.

📋 فهرست مطالب دوره:
فصل 0: پیش‌نیازها
فصل 1: شبکه عصبی پرسپترون (MLP)
فصل 2: مباحث ویژه شبکه MLP
فصل 3: توابع اتلاف و بهینه‌سازی

فصل 4: شبکه عصبی کانولوشن (CNN)
فصل 5: شبکه عصبی بازگشتی (RNN)
فصل 6: شبکه ترنسفورمر (Transformer) 💣
فصل 7: شبکه عصبی گرافی (GNN) 🔥
فصل 8: شبکه GAN

فصل 9: روش‌های مدرن یادگیری
فصل 10: یادگیری عمیق در بینایی کامپیوتر
فصل 11: یادگیری عمیق در پردازش متن
فصل 12: یادگیری عمیق در پردازش صوت

🌐 اطلاعات بیشتر و ثبت‌نام:
https://howsam.org/downloads/deep-learning-2022/

@howsam_org
آکادمی هوش‌مصنوعی هُوسم
💣 دوره یادگیری عمیق 2022 هوسم 🔥 🛎 ثبت‌نام دوره یادگیری عمیق با 40 درصد تخفیف برای 15 نفر اول شروع شد. 📋 فهرست مطالب دوره: فصل 0: پیش‌نیازها فصل 1: شبکه عصبی پرسپترون (MLP) فصل 2: مباحث ویژه شبکه MLP فصل 3: توابع اتلاف و بهینه‌سازی فصل 4: شبکه عصبی…
سوالات شما:

من قبلا در یکسری از دوره‌های هوسم شرکت کردم. تخفیف بیشتری ندارم؟
اگر در دوره یادگیری عمیق قبلی هوسم شرکت کردید، به مقدار هزینه‌ای که پرداخت کردید، می‌توانید تخفیف دریافت کنید. برای دریافت تخفیف، به پشتیبانی پیام دهید.

روزهای برگزاری کلاس آنلاین؟
چهارشنبه و پنج‌شنبه ساعت 19 (دو جلسه در هفته)

کدنویسی دارد؟
بله. مدت زمان آموزش برای بخش تئوری و کدنویسی تقریبا برابر هست.

پایتورچ یا تنسورفلو؟
پایتورچ

این پست درحال آپدیت است...
.
Forwarded from Scientometrics (Dr. Saeid Rezaee)
مصوبه جدید ستاد ملی کرونا: توصیه اکید به تزریق دز بوستر (سوم) واکسن کووید-۱۹ برای همه افراد بالای ۱۲ سال (به فاصله ۶ ماه از نوبت دوم).

نظر این ستاد در مورد ماسک:

«توصیه موکد به استفاده از ماسک و رعایت فاصله‌گذاری اجتماعی در اماکن مسقف شلوغ، پرتردد و پر ازدحام، وسایل نقلیه عمومی و بیمارستان‌ها.»

«در شهرهای زرد و آبی (فعلا همه شهرهای کشور)، در سایر اماکن (بخصوص فضاهای باز) الزامی به استفاده از ماسک وجود ندارد.»

کانال تلگرامی @Scientometric
PyTorch Howsam
سوالات شما: من قبلا در یکسری از دوره‌های هوسم شرکت کردم. تخفیف بیشتری ندارم؟ اگر در دوره یادگیری عمیق قبلی هوسم شرکت کردید، به مقدار هزینه‌ای که پرداخت کردید، می‌توانید تخفیف دریافت کنید. برای دریافت تخفیف، به پشتیبانی پیام دهید. روزهای برگزاری کلاس…
سلام دوستان

پیام کرونا اشتباهی فوروارد نشده. 😅
خوشبختانه، وضعیت کشور در کرونا الان خوبه. ولی خب توی همین شرایط هم باید توصیه‌ها رو جدی بگیریم. مثلا دز بوستر و ماسک توی اماکن شلوغ...

راستی، یکی توی این پیام ریپلای شده، اموجی 😢 گذاشته. چرا؟ غمت رو نبینم! 😁 لطفا به آیدی زیر پیام خصوصی بده.
@howsam_support
https://machinelearningmastery.com/introduction-to-1x1-convolutions-to-reduce-the-complexity-of-convolutional-neural-networks/
یک مطلب عالی از جیسون برانلی
درباره کانولوشن یک در یک
کلا ۳ تا کاربرد داره این نوع از کانولوشن :
🎯Linear Projection of stacked feature maps

🎯Channel wise pooling ( dimensionality reduction)

🎯Increase the number of feature maps

کلا کارش تغییر ( کاهش یا افزایش ) فیچر مپ هاست
مطلب اصلی رو بخونید و به کاربردهایی که مثال زده نگاهی داشته باشید تا کاربردهای کانولوشن یک در یک رو بهتر درک کنید
💡و دقت داشته باشید که
کانولوشن یک در یک که در حوزه تصویر و بینایی کامپیوتر استفاده می کنيم با کانولوشن یک بعدی که در پردازش صوت و متن استفاده می شه متفاوته.
اگه عاشق خودکار و کاغذ و ریاضی هستی، این پست رو احتمالا میپسندی...

Pen and Paper Exercises in Machine Learning
عنوان بالا اسم یه کتابچه هست که توی arxiv موجوده و شامل تمرینهای ریاضی برای یادگیری ماشینه. سوال مطرح کرده و جواب داده. این نوع کتابا واقعا مفیدن.

https://arxiv.org/abs/2206.13446

@pytorch_howsam
سلام، جمعه به کام 🥱
ما هر وقت میریم سایت پایتورچ، می‌بینیم یه لایبرری جدید معرفی کرده!
خدایا بسه دیگه، خسته شدیم... 😭

خب حالا لایبرری جدید پایتورچ چیه؟ TorchArrow
این لایبرری عملکردی مشابه با Pandas داره. پانداز چیکار میکنه؟ ساده بخواییم بگیم، توی ماشین لرنینگ، پانداز برای خوندن دیتاست‌ها و پیش پردازش اونها استفاده میشه. احتمالا دیتافریم براتون آشنا باشه.

حالا پایتورچ با لایبرری جدیدش میگه: من سعی میکنم همون کارهای پانداز رو برات انجام بدم. به تصویر بالا نگاه کنید؛ با همین torcharrow یه دیتافریم کوچیک ساخته و بعد هم با دستور fill_null اومده None رو با 999 پر کرده.

@pytorch_howsam
Forwarded from Howsam Support
داخل مقالات معیار های ارزیابی Ap وجود داره
Ap50
Ap75
Aps
Apm
Apl
امکانش هست یک توضیحی درباره این معیار ها بگین و اینکه هرچه مقدار بالاتر باشه بهتر هست یا پایین تر؟
💣 تاثیر بچ‌نرمالیزیشن روی شبکه چیه؟

به تصویر نگاه کنید؛ دو نمودار لاس ترین داریم که یکی برای شبکه بدون بچ‌نرم (آبی) هست و دیگری شبکه با بچ‌نرم (قرمز)...

بچ‌نرم تکنیکی هست که باعث میشه شبکه عصبی سریع‌تر ترین بشه. این مساله به وضوح در نمودارهای لاس دیده میشه.

در شبکه بدون بچ‌نرم (آبی)، حدودا ایپاک 150 به لاس 0.3 رسیدیم. درحالی‌که در شبکه با بچ‌نرم (قرمز)، خیلی زود (زیر 100 ایپاک) به لاس 0.3 رسیدیم. این اثر بچ‌نرم هست.

حالا چند تا سوال:
چرا نمودار قرمز یک مقداری نوسانی شده؟
بچ‌نرم رو باید کجا قرار بدیم؟

🌐 منابع:
wikipedia
towardsdatascience
better deep learning
deep learning 2022 howsam

چطور بود؟ بازم بذاریم؟؟ 🤪

@pytorch_howsam
امان از این اورفیت! 🤒

نمودار بالا، لاس مربوط به ترین و ولیدیشن یک مدل اورفیت شده هست. میخوایم تو این پست درمورد اورفیت صحبت کنیم...

اورفیت چیه؟
اگه مدل ما حین یادگیری، همزمان با کاهش لاس ترین، لاس ارزیابیش شروع به افزایش کنه، میگیم مدل اورفیت شده.

پس این شد:
کاهش لاس ترین، اما افزایش لاس ولیدیشن (ارزیابی)

سه روش جلوگیری از اورفیت چیه؟
1⃣ رگولاریزیشن L1 و L2 (اضافه کردن یک قید وزن روی لاس مدل)
2⃣ دراپ‌اوت (خاموش کردن رندومی نورون‌های یک لایه)
3⃣ دیتا آگمنتیشن

تو پست‌های بعدی درمورد این سه تا مورد جلوگیری از اورفیت توضیح میدیم.

@pytorch_howsam
2025/07/14 16:53:44
Back to Top
HTML Embed Code: