سلام دوستان
این گالری تصاویر رو از پیج اینستای شهرسختافزار برداشتیم. تبلیغاتی نیستا 😅
یکسری سیستم با قیمتهای متفاوت پیشنهاد داده. برای دوستانی که میخوان سیستم بخرن شاید مناسب باشه.
راستی، دوستانی که تجربه دارن لطفا نظر بدن بقیه استفاده کنن.
@pytorch_howsam
این گالری تصاویر رو از پیج اینستای شهرسختافزار برداشتیم. تبلیغاتی نیستا 😅
یکسری سیستم با قیمتهای متفاوت پیشنهاد داده. برای دوستانی که میخوان سیستم بخرن شاید مناسب باشه.
راستی، دوستانی که تجربه دارن لطفا نظر بدن بقیه استفاده کنن.
@pytorch_howsam
اتنشن تکنیکی هست که خیلی پرطرفداره و خب انصافا تکنیک موثری هم هست.
خیلیها دنبال شناختن تکنیکها یا ماژولهای مختلف اتنشن هستن. خبر خوب اینکه یک مقاله survey درباره اتنشن در بینایی کامپیوتر داریم که خوندنش میتونه خیلی مفید باشه.
https://arxiv.org/pdf/2111.07624v1.pdf
@pytorch_howsam
خیلیها دنبال شناختن تکنیکها یا ماژولهای مختلف اتنشن هستن. خبر خوب اینکه یک مقاله survey درباره اتنشن در بینایی کامپیوتر داریم که خوندنش میتونه خیلی مفید باشه.
https://arxiv.org/pdf/2111.07624v1.pdf
@pytorch_howsam
یک کتاب آنلاین خوب 👌
کتاب یا گیری عمیق در NLP
دامنه مباحثی که پوشش داده، وسیع هست. فهرست مطالب رو در تصویر بالا مشاهده کنید.
nlpoverview.com
@pytorch_howsam
کتاب یا گیری عمیق در NLP
دامنه مباحثی که پوشش داده، وسیع هست. فهرست مطالب رو در تصویر بالا مشاهده کنید.
nlpoverview.com
@pytorch_howsam
خب کم کم jax داره رشد میکنه...
قبلا از jax گفتیم. اونهایی که تنسورفلو یا پایتورچ مسلط هستن و وقت آزاد دارن، نیمنگاهی به jax داشته باشن.
این یک نمونه پیج آموزشی از jax که فقط با مثال جلو رفته. اصلا توضیح نداره، فقط مثال...
https://github.com/vopani/jaxton
@pytorch_howsam
قبلا از jax گفتیم. اونهایی که تنسورفلو یا پایتورچ مسلط هستن و وقت آزاد دارن، نیمنگاهی به jax داشته باشن.
این یک نمونه پیج آموزشی از jax که فقط با مثال جلو رفته. اصلا توضیح نداره، فقط مثال...
https://github.com/vopani/jaxton
@pytorch_howsam
GitHub
GitHub - vopani/jaxton: 100 exercises to learn JAX
100 exercises to learn JAX. Contribute to vopani/jaxton development by creating an account on GitHub.
Graph Neural Networks (GNN)
اگه میخوایید GNN یاد بگیرید، حتما به این پیج سر بزنید. منابع خوبی رو معرفی کرده.
https://github.com/dair-ai/GNNs-Recipe#-tutorials
@pytorch_howsam
اگه میخوایید GNN یاد بگیرید، حتما به این پیج سر بزنید. منابع خوبی رو معرفی کرده.
https://github.com/dair-ai/GNNs-Recipe#-tutorials
@pytorch_howsam
Forwarded from آکادمی هوشمصنوعی هُوسم
🎁 تخفیف بزرگ دوره بینایی کامپیوتر حرفهای 🔥
⭕️ به مناسبت سال جدید، دوره بینایی کامپیوتر با 40 درصد تخفیف عرضه شده است.
🌐 اطلاعات بیشتر و تهیه دوره: لینک دوره
@howsam_org
⭕️ به مناسبت سال جدید، دوره بینایی کامپیوتر با 40 درصد تخفیف عرضه شده است.
🌐 اطلاعات بیشتر و تهیه دوره: لینک دوره
@howsam_org
چطوری میتونم یک متن رو در پایتورچ توکنایز کنم؟ 🤔
ساده هست؛ بیایید مرحله به مرحله پیش بریم...
✅ اول، ایمپورت get_tokenizer از لایبرری تورچتکست:
from torchtext.data.utils import get_tokenizer
✅ دوم، کانفیگ کردن تابع get_tokenizer؛ یعنی با دستور زیر بگیم که چه نوع توکنایزری میخواییم. مثلا، ما از توکنایزر آماده پایتورچ برای انگلیسی استفاده کردیم:
tokenizer = get_tokenizer('basic_english')
✅ سوم، یک جمله بنویسیم. جمله زیر معنی خاصی نداره. یک جمله ناقص از دیتاست ag_news هست. پرانتز داره میخواییم ببینیم توکنایزر با پرانتزها چیکار میکنه:
line = "Carlyle Looks Toward Commercial Aerospace (Reuters) Reuters"
✅ چهارم، توکنایزر لطفا توکنایز کن:
tokens = tokenizer(line)
print(tokens)
✅ این هم نتیجه:
['carlyle', 'looks', 'toward', 'commercial', 'aerospace', '(', 'reuters', ')', 'reuters']
⭕️ انصافا ساده بود، نه؟
برگرفته از دوره جدید آموزش پایتورچ هوسم 😎
@pytorch_howsam
ساده هست؛ بیایید مرحله به مرحله پیش بریم...
✅ اول، ایمپورت get_tokenizer از لایبرری تورچتکست:
from torchtext.data.utils import get_tokenizer
✅ دوم، کانفیگ کردن تابع get_tokenizer؛ یعنی با دستور زیر بگیم که چه نوع توکنایزری میخواییم. مثلا، ما از توکنایزر آماده پایتورچ برای انگلیسی استفاده کردیم:
tokenizer = get_tokenizer('basic_english')
✅ سوم، یک جمله بنویسیم. جمله زیر معنی خاصی نداره. یک جمله ناقص از دیتاست ag_news هست. پرانتز داره میخواییم ببینیم توکنایزر با پرانتزها چیکار میکنه:
line = "Carlyle Looks Toward Commercial Aerospace (Reuters) Reuters"
✅ چهارم، توکنایزر لطفا توکنایز کن:
tokens = tokenizer(line)
print(tokens)
✅ این هم نتیجه:
['carlyle', 'looks', 'toward', 'commercial', 'aerospace', '(', 'reuters', ')', 'reuters']
⭕️ انصافا ساده بود، نه؟
برگرفته از دوره جدید آموزش پایتورچ هوسم 😎
@pytorch_howsam
چقدر این دغدغه رو دارید که کد پایتون رو زیبا و تمیز بنویسید؟
اگه چنین دغدغهای دارید، باید دنبال Style Guide برای پایتون باشید.
مثلا pep8 یک راهنما برای همین کار هست. به شما پیشنهادهایی رو میده که بتونید تمیز و اصولی کد بزنید.
مثلا به تصویر بالا نگاه کنید؛ گفته، فاصلههای الکی نذار. هم شکل درست رو نشون داده و هم شکل اشتباه رو. این اشتباهات معنیش این نیست که کد ما به خطا میخوره، نه! بلکه، میخواد به ما استاندارد کد زدن در پایتون رو یاد بده.
لینک pep8:
https://peps.python.org/pep-0008/
حتما یاد بگیرید. دوست دارید هرازگاهی چند تا نکاتش رو بگیم؟
@pytorch_howsam
اگه چنین دغدغهای دارید، باید دنبال Style Guide برای پایتون باشید.
مثلا pep8 یک راهنما برای همین کار هست. به شما پیشنهادهایی رو میده که بتونید تمیز و اصولی کد بزنید.
مثلا به تصویر بالا نگاه کنید؛ گفته، فاصلههای الکی نذار. هم شکل درست رو نشون داده و هم شکل اشتباه رو. این اشتباهات معنیش این نیست که کد ما به خطا میخوره، نه! بلکه، میخواد به ما استاندارد کد زدن در پایتون رو یاد بده.
لینک pep8:
https://peps.python.org/pep-0008/
حتما یاد بگیرید. دوست دارید هرازگاهی چند تا نکاتش رو بگیم؟
@pytorch_howsam
#معرفی_کتاب
در حوزه تنسورفلو/کراس و سایکیتلرن، اگه دنبال کتابی باشی، احتمالا به کتاب کمنظیر hands on machine learning میرسی. اما برای پایتورچ ما کتاب خوبی ندیدیم تا الان!
اما یک کتاب جدید پایتورچی اومده که به نظر میرسه کتاب خوبیه. نویسنده اولش آقای سباستین راشکا هست که معروفه... اسم کتاب چیه؟
Machine learning with scikit-learn and pytorch (link)
فهرست مطالب جونداری هم داره!
نویسنده سوم هم ایرانیه که باریکالله...
چند تا کتاب و دوره معرفی کنیم تو تعطیلات بخونیم! الکی! 🤪
@pytorch_howsam
در حوزه تنسورفلو/کراس و سایکیتلرن، اگه دنبال کتابی باشی، احتمالا به کتاب کمنظیر hands on machine learning میرسی. اما برای پایتورچ ما کتاب خوبی ندیدیم تا الان!
اما یک کتاب جدید پایتورچی اومده که به نظر میرسه کتاب خوبیه. نویسنده اولش آقای سباستین راشکا هست که معروفه... اسم کتاب چیه؟
Machine learning with scikit-learn and pytorch (link)
فهرست مطالب جونداری هم داره!
نویسنده سوم هم ایرانیه که باریکالله...
چند تا کتاب و دوره معرفی کنیم تو تعطیلات بخونیم! الکی! 🤪
@pytorch_howsam
سلام. اگه علاقه مند به خواندن کتاب هستید کتاب زیر هم کتاب مناسبی برای یادگیری عمیق با پایتورچ است.
https://www.amazon.com/Modern-Computer-Vision-PyTorch-applications/dp/1839213477
یک کتاب خوب کدنویسی پایتورچ و مخصوص بینایی کامپیوتر
ممنون از سعید عزیز بابت معرفی کتاب ❤️
https://www.amazon.com/Modern-Computer-Vision-PyTorch-applications/dp/1839213477
یک کتاب خوب کدنویسی پایتورچ و مخصوص بینایی کامپیوتر
ممنون از سعید عزیز بابت معرفی کتاب ❤️
Forwarded from آکادمی هوشمصنوعی هُوسم
⭕️ مومنتوم در گرادیان کاهشی نقش جالبی دارد. در این انیمیشنها، تاثیر تغییر مومنتوم را میتوانید مشاهده کنید.
1️⃣ مومنتوم صفر است. در چاله ماند و تمام!
2️⃣ مومنتوم 0.9 است. میخواهد از چاله فرار کند، اما زورش کم بود.
3️⃣ مومنتوم 0.95 است. نزدیک بود از چاله بپرد بیرون و به چاه برسد. نشد!
4️⃣ مومنتوم 0.99 است. بالاخره از چاله بیرون پرید و در چاه افتاد. اما به قیمت نوسان زیاد!
🌐 اگر هم علاقهمند به مطالعه گرادیان کاهشی بودید، به لینک زیر نگاهی بیندازید:
https://howsam.org/gradient-descent/
@howsam_org
1️⃣ مومنتوم صفر است. در چاله ماند و تمام!
2️⃣ مومنتوم 0.9 است. میخواهد از چاله فرار کند، اما زورش کم بود.
3️⃣ مومنتوم 0.95 است. نزدیک بود از چاله بپرد بیرون و به چاه برسد. نشد!
4️⃣ مومنتوم 0.99 است. بالاخره از چاله بیرون پرید و در چاه افتاد. اما به قیمت نوسان زیاد!
🌐 اگر هم علاقهمند به مطالعه گرادیان کاهشی بودید، به لینک زیر نگاهی بیندازید:
https://howsam.org/gradient-descent/
@howsam_org
Forwarded from آکادمی هوشمصنوعی هُوسم
Media is too big
VIEW IN TELEGRAM
🔥 شبکه عصبی بازگشتی (RNN) 🔥
🎬 در این ویدئو درباره شبکه بازگشتی یا RNN توضیح دادهایم و ساختار داخلی آن را هم تشریح کردهایم.
📜 این ویدئو خلاصهای از پست وبلاگی شبکه بازگشتی هوسم است. پس از مشاهده ویدئو، پیشنهاد میکنیم پست زیر را مطالعه کنید:
https://howsam.org/recurrent-neural-network/
📱اگر به این ویدئوهای کوتاه علمی علاقهمندید، به اینستاگرام هوسم بپیوندید:
https://www.instagram.com/howsam_org/
@howsam_org
🎬 در این ویدئو درباره شبکه بازگشتی یا RNN توضیح دادهایم و ساختار داخلی آن را هم تشریح کردهایم.
📜 این ویدئو خلاصهای از پست وبلاگی شبکه بازگشتی هوسم است. پس از مشاهده ویدئو، پیشنهاد میکنیم پست زیر را مطالعه کنید:
https://howsam.org/recurrent-neural-network/
📱اگر به این ویدئوهای کوتاه علمی علاقهمندید، به اینستاگرام هوسم بپیوندید:
https://www.instagram.com/howsam_org/
@howsam_org
با آگمنتیشن آشنا هستید؟ با اتوآگمنت چطور؟
احتمالا با دیتاآگمنتیشن آشنا هستید. روشی که دادهها (مثلا تصویر) رو تغییراتی میدیم. مثل کراپ، ریسایز، پدینگ و غیره.
همیشه ما باید تکنیکهای آگمنت رو پشت هم بچینیم و یک آگمنتیشن خوب بسازیم.
اما Auto Augment کار رو راحتتر میکنه. دیگه نیازی نیست ما کاری کنیم و خودش خودکار آگمنت رو انجام میده.
پایتورچ دستوراتش رو داره. توی تصویر بالا دستورش رو نوشتیم و چهار بار روی یک تصویر دلخواه اعمالش کردیم. ببینید چه تصاویر چالشی از تصویر اصلی ساخته. تصویر اصلی یک کامیون هست.
@pytorch_howsam
احتمالا با دیتاآگمنتیشن آشنا هستید. روشی که دادهها (مثلا تصویر) رو تغییراتی میدیم. مثل کراپ، ریسایز، پدینگ و غیره.
همیشه ما باید تکنیکهای آگمنت رو پشت هم بچینیم و یک آگمنتیشن خوب بسازیم.
اما Auto Augment کار رو راحتتر میکنه. دیگه نیازی نیست ما کاری کنیم و خودش خودکار آگمنت رو انجام میده.
پایتورچ دستوراتش رو داره. توی تصویر بالا دستورش رو نوشتیم و چهار بار روی یک تصویر دلخواه اعمالش کردیم. ببینید چه تصاویر چالشی از تصویر اصلی ساخته. تصویر اصلی یک کامیون هست.
@pytorch_howsam
⭕️ میدونی پایتورچ یکسری مدل pre-train کوانتیزه شده داره؟
✅ خب حتما Pre-train رو میدونید چیه. همون وزنهای آماده مدل که همیشه ازشون استفاده میکنیم.
✅ اما کوانتیزه چیه؟ ببینید، وزن مدلها بهصورت پیشفرض 32 بیت اعشاری هست. اما با کوانتیزه کردن میتونیم وزنها رو بهصورت 8 بیت integer داشته باشیم و البته کارایی شبکه هم افت زیادی نکنه.
✅ خب به درد کجا میخوره؟ بردهـــــــــای امبــــــــدد و موبــــــایل (با کوانتیزه مصرف رم رو به شدت کم کردیم)
✅ چطوری ازش استفاده کنیم؟ اینم یک مثال ساده که موبایلنت کوانتیزه رو فراخوانی کرده:
import torchvision.models as models
model = models.quantization.mobilenet_v2(pretrained=True, quantize=True)
model.eval()
out = model(torch.rand(1, 3, 224, 224))
@pytorch_howsam
✅ خب حتما Pre-train رو میدونید چیه. همون وزنهای آماده مدل که همیشه ازشون استفاده میکنیم.
✅ اما کوانتیزه چیه؟ ببینید، وزن مدلها بهصورت پیشفرض 32 بیت اعشاری هست. اما با کوانتیزه کردن میتونیم وزنها رو بهصورت 8 بیت integer داشته باشیم و البته کارایی شبکه هم افت زیادی نکنه.
✅ خب به درد کجا میخوره؟ بردهـــــــــای امبــــــــدد و موبــــــایل (با کوانتیزه مصرف رم رو به شدت کم کردیم)
✅ چطوری ازش استفاده کنیم؟ اینم یک مثال ساده که موبایلنت کوانتیزه رو فراخوانی کرده:
import torchvision.models as models
model = models.quantization.mobilenet_v2(pretrained=True, quantize=True)
model.eval()
out = model(torch.rand(1, 3, 224, 224))
@pytorch_howsam
سلام دوستان
یک سوال مهم؟! 🤔
تئوری و ریاضیات در هوش مصنوعی مهمه؟
یک سوال مهم؟! 🤔
تئوری و ریاضیات در هوش مصنوعی مهمه؟
Anonymous Poll
83%
آره مهمه. واقعا بدون تئوری و ریاضی نمیشه موفق شد. بدون اینا توی کدنویسی هم نمیشه کار خاصی کرد.
17%
نه اصلا. کراس و سایکیتلرن رو ببین. با چهار خط کد، مدل یادگیری ماشین یا عمیق ترین میکنی.