Forwarded from School of AI (Hamidreza Hosseinkhani)
شرکت OpenAI یه پروموشن خوب گذاشته که پیشنهاد میکنم همین الان ازش استفاده کنید.
با پرداخت فقط یک دلار میتونید یک ماه از پلن تیمی (معادل Plus) برای ۵ نفر استفاده کنید.
یعنی شما با پرداخت ۱ دلار آمریکا بهجای ۱۵۰ دلار، پلن تیمی چتجیپیتی رو برای ۵ نفر میخرید که معادل ChatGPT Plus است.
فقط باید دقت کنید که بعد از یک ماه استفاده، قیمت به ۱۵۰ دلار برمیگرده و اگه بخواید برای ماه دوم هم استفاده کنید باید ۱۵۰ دلار پول بدید. اما قبل از سررسید ماه بهراحتی میتونید از بخش Settings گزینهی Plans & Billing رو انتخاب کنید و عضویتتون رو برای ماه دوم کنسل کنید.
برای فعالسازی، از لینک زیر استفاده کنید:
chatgpt.com/?numSeats=5&selectedPlan=month
توجه: مراقب لینکهای جعلی باشید و اگر لینک رو از جایی کپی میکنید با دقت بررسی کنید!
توجه: چتهای هر فرد عضو تیم خصوصیاند و بهصورت پیشفرض به دیگری نشون داده نمیشن.
توجه: برای پرداخت، از کارتهای مجازی Prepaid (مثل کارتهایی که سایتهایی مثل ایرانیکارت میفروشن) استفاده نکنید، کار نمیکنه.
توجه: اگه فقط قصد استفادهی موقت دارید، فراموش نکنید قبل از یک ماه کنسل کنید چون سر ماه ۱۵۰ دلار بهصورت خودکار برداشت میشه.
توجه: ترجیها برای پرداخت، نام کاربری و گذرواژهی چتجیپیتیتون رو به کسی ندید.
با پرداخت فقط یک دلار میتونید یک ماه از پلن تیمی (معادل Plus) برای ۵ نفر استفاده کنید.
یعنی شما با پرداخت ۱ دلار آمریکا بهجای ۱۵۰ دلار، پلن تیمی چتجیپیتی رو برای ۵ نفر میخرید که معادل ChatGPT Plus است.
فقط باید دقت کنید که بعد از یک ماه استفاده، قیمت به ۱۵۰ دلار برمیگرده و اگه بخواید برای ماه دوم هم استفاده کنید باید ۱۵۰ دلار پول بدید. اما قبل از سررسید ماه بهراحتی میتونید از بخش Settings گزینهی Plans & Billing رو انتخاب کنید و عضویتتون رو برای ماه دوم کنسل کنید.
برای فعالسازی، از لینک زیر استفاده کنید:
chatgpt.com/?numSeats=5&selectedPlan=month
توجه: مراقب لینکهای جعلی باشید و اگر لینک رو از جایی کپی میکنید با دقت بررسی کنید!
توجه: چتهای هر فرد عضو تیم خصوصیاند و بهصورت پیشفرض به دیگری نشون داده نمیشن.
توجه: برای پرداخت، از کارتهای مجازی Prepaid (مثل کارتهایی که سایتهایی مثل ایرانیکارت میفروشن) استفاده نکنید، کار نمیکنه.
توجه: اگه فقط قصد استفادهی موقت دارید، فراموش نکنید قبل از یک ماه کنسل کنید چون سر ماه ۱۵۰ دلار بهصورت خودکار برداشت میشه.
توجه: ترجیها برای پرداخت، نام کاربری و گذرواژهی چتجیپیتیتون رو به کسی ندید.
ChatGPT
A conversational AI system that listens, learns, and challenges
❤3👍3
اگر افسردگی ندارید و این حالتونو بدتر نمیکنه، برید تو ChatGPT بنویسید:
و آماده ی یه نقد بیرحمانه، صادقانه و رک و پوستکنده باشید.
منو که شُست ؛)
No mercy, no filter, roast me
و آماده ی یه نقد بیرحمانه، صادقانه و رک و پوستکنده باشید.
منو که شُست ؛)
😱17👀5❤3👌3🤯1
آخرین و دهمین ورژن کورس معروف CS231n دانشگاه استنفورد برای بهار ۲۰۲۵ در یوتوب منتشر شد:
https://m.youtube.com/playlist?list=PLoROMvodv4rOmsNzYBMe0gJY2XS8AQg16
https://m.youtube.com/playlist?list=PLoROMvodv4rOmsNzYBMe0gJY2XS8AQg16
YouTube
Stanford CS231N Deep Learning for Computer Vision I 2025
Computer Vision has become ubiquitous in our society, with applications in search, image understanding, apps, mapping, medicine, drones, and self-driving car...
❤26🙏2
چرا مدلهای زبانی دچار توهم (Hallucination) میشوند؟
بر اساس گزارشی از OpenAI، پدیده توهمزایی (Hallucination) در مدلهای زبانی بزرگ (LLMs) یک نقص ناشناخته و black-box نیست، بلکه نتیجهای کاملاً قابل پیشبینی از نحوه آموزش و ارزیابی این مدلهاست. این مشکل به دو بخش اصلی تقسیم میشود:
1️⃣ پیشآموزش (pretraining)
2️⃣ پسآموزش (post-training)
1️⃣بخش اول: مشکلات به دلیل فاز Pretraining
توهمزایی از نظر آماری یک خطای طبیعی است. حتی اگر دادههای آموزشی کاملاً بدون خطا باشند، مدلها برای تخمین توزیع زبان بهینه میشوند و در این فرآیند، خطاهایی تولید میکنند. این پدیده شباهت دارد به مشکل "طبقهبندی دودویی" (آیا یک خروجی معتبر است؟)، اما مدلهای زبانی باید پاسخهای کامل و معتبر تولید کنند که کار بسیار دشوارتری است.
یک عامل کلیدی در این مرحله، "نرخ تکنمونه" (Singleton Rate) است. این نرخ نشان میدهد چه تعداد از حقایق در دادههای آموزشی فقط یک بار تکرار شدهاند. برای مثال، اگر 20% از تاریخهای تولد تنها یک بار در مجموعه دادهها وجود داشته باشند، انتظار میرود مدل در حداقل 20% موارد درباره این حقایق توهم کند!
2️⃣بخش دوم: تشدید در Post-training
علیرغم تکنیکهایی مانند RLHF (یادگیری تقویتی از بازخورد انسانی) که برای کاهش توهم طراحی شدهاند، این پدیده همچنان ادامه دارد. چرا؟ چون معیارهای ارزیابی رایج، مانند بنچمارکهای باینری (صفر و یک)، به حدس زدن پاداش میدهند.
در یک سیستم نمرهدهی باینری، پاسخ صحیح 1 امتیاز میگیرد، اما پاسخهای مبهم یا "نمیدانم" (I Don't Know) صفر امتیاز دارند. این ساختار مدل را به «حالت امتحاندهی» سوق میدهد و آن را تشویق میکند تا به جای اعتراف به عدم قطعیت، یک پاسخ نادرست اما قابلباور تولید کند. این "اپیدمی" جریمهکردن عدم قطعیت، باعث میشود مدلها همیشه حدس بزنند تا امتیاز بیشتری کسب کنند، حتی اگر از پاسخشان مطمئن نباشند.
✅راهحل پیشنهادی: اصلاح ساختار ارزیابی
این گزارش پیشنهاد میکند به جای ساخت بنچمارکهای جدید، نحوه نمرهدهی بنچمارکهای موجود اصلاح شود. برای حل این مشکل، باید:
⏺️ امتیازدهی به "نمیدانم": به مدلها اجازه داده شود بدون جریمهشدن، عدم قطعیت خود را ابراز کنند و حتی برای آن امتیازی در نظر گرفته شود.
⏺️تعریف آستانههای اطمینان: دستورالعملهای ارزیابی باید صراحتاً مشخص کنند که مدل تنها در صورت اطمینان بالای یک آستانه مشخص (مثلاً 75%) پاسخ دهد.
این تغییرات "جامعهفنی" میتواند به مدلها انگیزه دهد تا صادقانهتر و قابلاعتمادتر باشند و زمینه را برای توسعه سیستمهای هوش مصنوعی قابل اطمینانتر فراهم کند.
بر اساس گزارشی از OpenAI، پدیده توهمزایی (Hallucination) در مدلهای زبانی بزرگ (LLMs) یک نقص ناشناخته و black-box نیست، بلکه نتیجهای کاملاً قابل پیشبینی از نحوه آموزش و ارزیابی این مدلهاست. این مشکل به دو بخش اصلی تقسیم میشود:
1️⃣ پیشآموزش (pretraining)
2️⃣ پسآموزش (post-training)
1️⃣بخش اول: مشکلات به دلیل فاز Pretraining
توهمزایی از نظر آماری یک خطای طبیعی است. حتی اگر دادههای آموزشی کاملاً بدون خطا باشند، مدلها برای تخمین توزیع زبان بهینه میشوند و در این فرآیند، خطاهایی تولید میکنند. این پدیده شباهت دارد به مشکل "طبقهبندی دودویی" (آیا یک خروجی معتبر است؟)، اما مدلهای زبانی باید پاسخهای کامل و معتبر تولید کنند که کار بسیار دشوارتری است.
یک عامل کلیدی در این مرحله، "نرخ تکنمونه" (Singleton Rate) است. این نرخ نشان میدهد چه تعداد از حقایق در دادههای آموزشی فقط یک بار تکرار شدهاند. برای مثال، اگر 20% از تاریخهای تولد تنها یک بار در مجموعه دادهها وجود داشته باشند، انتظار میرود مدل در حداقل 20% موارد درباره این حقایق توهم کند!
2️⃣بخش دوم: تشدید در Post-training
علیرغم تکنیکهایی مانند RLHF (یادگیری تقویتی از بازخورد انسانی) که برای کاهش توهم طراحی شدهاند، این پدیده همچنان ادامه دارد. چرا؟ چون معیارهای ارزیابی رایج، مانند بنچمارکهای باینری (صفر و یک)، به حدس زدن پاداش میدهند.
در یک سیستم نمرهدهی باینری، پاسخ صحیح 1 امتیاز میگیرد، اما پاسخهای مبهم یا "نمیدانم" (I Don't Know) صفر امتیاز دارند. این ساختار مدل را به «حالت امتحاندهی» سوق میدهد و آن را تشویق میکند تا به جای اعتراف به عدم قطعیت، یک پاسخ نادرست اما قابلباور تولید کند. این "اپیدمی" جریمهکردن عدم قطعیت، باعث میشود مدلها همیشه حدس بزنند تا امتیاز بیشتری کسب کنند، حتی اگر از پاسخشان مطمئن نباشند.
✅راهحل پیشنهادی: اصلاح ساختار ارزیابی
این گزارش پیشنهاد میکند به جای ساخت بنچمارکهای جدید، نحوه نمرهدهی بنچمارکهای موجود اصلاح شود. برای حل این مشکل، باید:
⏺️ امتیازدهی به "نمیدانم": به مدلها اجازه داده شود بدون جریمهشدن، عدم قطعیت خود را ابراز کنند و حتی برای آن امتیازی در نظر گرفته شود.
⏺️تعریف آستانههای اطمینان: دستورالعملهای ارزیابی باید صراحتاً مشخص کنند که مدل تنها در صورت اطمینان بالای یک آستانه مشخص (مثلاً 75%) پاسخ دهد.
این تغییرات "جامعهفنی" میتواند به مدلها انگیزه دهد تا صادقانهتر و قابلاعتمادتر باشند و زمینه را برای توسعه سیستمهای هوش مصنوعی قابل اطمینانتر فراهم کند.
👍24❤4
🎉 به مناسبت روز برنامهنویس 🎉
برنامهنویسی یعنی ساختن، حل مسئله و تبدیل ایده به واقعیت. هر مهارت جدیدی که یاد میگیری، یه قدم به آینده روشنتر نزدیکتر میشی.
📌 مکتبخونه ۵۰ دوره پرمخاطب برنامهنویسی رو رایگان کرده!
کافیه دوره دلخواهت رو انتخاب کنی، تیک «دسترسی کامل» رو برداری و کد تخفیف:
👉
رو وارد کنی تا دوره برات رایگان بشه.
⏰ این کد فقط تا یکشنبه ۲۳ شهریور فعاله و میتونی باهاش یه دوره رو رایگان برداری.
🔗 دوره پیشنهادی: آموزش جامع یادگیری عمیق (Deep Learning) با Tensorflow و Keras
📚 بقیه دورههای رایگان رو هم اینجا ببینید:
https://mktb.me/tuj6/
برنامهنویسی یعنی ساختن، حل مسئله و تبدیل ایده به واقعیت. هر مهارت جدیدی که یاد میگیری، یه قدم به آینده روشنتر نزدیکتر میشی.
📌 مکتبخونه ۵۰ دوره پرمخاطب برنامهنویسی رو رایگان کرده!
کافیه دوره دلخواهت رو انتخاب کنی، تیک «دسترسی کامل» رو برداری و کد تخفیف:
👉
HELLOWORLD
رو وارد کنی تا دوره برات رایگان بشه.
⏰ این کد فقط تا یکشنبه ۲۳ شهریور فعاله و میتونی باهاش یه دوره رو رایگان برداری.
🔗 دوره پیشنهادی: آموزش جامع یادگیری عمیق (Deep Learning) با Tensorflow و Keras
📚 بقیه دورههای رایگان رو هم اینجا ببینید:
https://mktb.me/tuj6/
🔥14❤6
Forwarded from DeepMind AI Expert (Farzad 🦅)
دوره #آموزشی #امنیت #هوش_مصنوعی از دانشگاه هاروارد منتشر شد. این دوره به مرور در یوتیوب اپدیت میگردد.
▪️ CS 2881 AI Safety
▪️ AI Safety
#یادگیری_تقویتی #کلاس_آموزشی #منابع #فیلم
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
▪️ CS 2881 AI Safety
▪️ AI Safety
#یادگیری_تقویتی #کلاس_آموزشی #منابع #فیلم
🔸 مطالب بیشتر 👇👇
✅ @AI_DeepMind
🔸 @AI_Person
👍5❤1
Forwarded from آموزش LLM و VLM
معرفی Min P: روش جدید نمونهبرداری توکن برای LLMها
https://class.vision/blog/min_p/
مقاله اصلی:
https://arxiv.org/abs/2407.01082
https://class.vision/blog/min_p/
مقاله اصلی:
https://arxiv.org/abs/2407.01082
کلاسویژن
معرفی Min P: روش جدید نمونهبرداری توکن برای LLMها - کلاسویژن
Min P، یک روش نمونهبرداری (sampling) جدید برای مدلهای زبانی بزرگ (LLMs). با کمتر از ۱۰ خط کد برای پیاده سازی است که در در دیتاستهای GSM8K و GPQA حدود ۱۰ تا
❤6
لطفاً در صورتی که پیشتر در دوره LLM مکتبخونه ثبتنام کردهاید، به کانال مربوط به این دوره بپیوندید:
🔗 کانال تلگرام دوره
🔗 کانال تلگرام دوره
Telegram
آموزش LLM و VLM
آموزش تخصصی LLM و Hugging face
گروه مباحثه:
@llm_group
گروه مباحثه:
@llm_group
❤7👍1
Forwarded from آموزش LLM و VLM
🚀 نوتبوکهای جدید دوره Vision-Language Models (VLM) روی گیتهاب قرار گرفت!
👈از شماره 20 تا 35
https://github.com/Alireza-Akhavan/LLM
📢[این دوره به عنوان کورس ادامه LLM به زودی منتشر میگردد]
مباحث کلیدی که پوشش داده شده:
✨ بررسی CLIP و SigLIP
👁 درک تصویر و ویدیو با VLMها
🔧 فاینتیون با روش SFT
⚡️ بهینهسازی ترجیحات با DPO / GRPO / MPO
🐇 استفاده از Unsloth برای آموزش سریعتر و بهینهتر
📌 اگر به مباحث مولتیمدال و فاینتیون مدلهای Vision-Language علاقهمندید، این بخش رو از دست ندید!
👈از شماره 20 تا 35
https://github.com/Alireza-Akhavan/LLM
📢[این دوره به عنوان کورس ادامه LLM به زودی منتشر میگردد]
مباحث کلیدی که پوشش داده شده:
✨ بررسی CLIP و SigLIP
👁 درک تصویر و ویدیو با VLMها
🔧 فاینتیون با روش SFT
⚡️ بهینهسازی ترجیحات با DPO / GRPO / MPO
🐇 استفاده از Unsloth برای آموزش سریعتر و بهینهتر
📌 اگر به مباحث مولتیمدال و فاینتیون مدلهای Vision-Language علاقهمندید، این بخش رو از دست ندید!
❤🔥14❤10
🚀 نسخه جدید Deep Learning with Python: رایگان + محتوای LLM و GenAI
توئیت 16 ساعت پیش François Chollet:
ویرایش سوم کتاب من با عنوان Deep Learning with Python هماکنون در حال چاپ است و ظرف دو هفته آینده در کتابفروشیها خواهد بود. شما میتوانید آن را همین حالا از آمازون یا انتشارات Manning سفارش دهید.
این بار، ما کل کتاب را بهصورت یک وبسایت کاملاً رایگان منتشر میکنیم.
برایم مهم نیست اگر این کار باعث کاهش فروش کتاب شود؛ من فکر میکنم این بهترین مقدمه برای یادگیری عمیق است و افراد بیشتری باید بتوانند آن را بخوانند.
🔗کتاب آنلاین رایگان:
https://deeplearningwithpython.io/
ویرایش جدید محتوای بسیار بیشتری در زمینه هوش مصنوعی مولد دارد. همچنین شامل مباحث پایهای JAX و PyTorch و تمام قابلیتهای جدید در Keras 3 میشود.
مقدار زیادی محتوای جدید درباره مدلهای زبانی بزرگ (LLM) و جریانهای کاری مبتنی بر LLM نیز اضافه شده است.
🌀 @cvision 🌀
توئیت 16 ساعت پیش François Chollet:
ویرایش سوم کتاب من با عنوان Deep Learning with Python هماکنون در حال چاپ است و ظرف دو هفته آینده در کتابفروشیها خواهد بود. شما میتوانید آن را همین حالا از آمازون یا انتشارات Manning سفارش دهید.
این بار، ما کل کتاب را بهصورت یک وبسایت کاملاً رایگان منتشر میکنیم.
برایم مهم نیست اگر این کار باعث کاهش فروش کتاب شود؛ من فکر میکنم این بهترین مقدمه برای یادگیری عمیق است و افراد بیشتری باید بتوانند آن را بخوانند.
🔗کتاب آنلاین رایگان:
https://deeplearningwithpython.io/
ویرایش جدید محتوای بسیار بیشتری در زمینه هوش مصنوعی مولد دارد. همچنین شامل مباحث پایهای JAX و PyTorch و تمام قابلیتهای جدید در Keras 3 میشود.
مقدار زیادی محتوای جدید درباره مدلهای زبانی بزرگ (LLM) و جریانهای کاری مبتنی بر LLM نیز اضافه شده است.
🌀 @cvision 🌀
👍29❤9🔥7👏2⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
مدل OmniInsert به شما امکان میدهد که هر جسم یا سوژهای را بدون ماسکگذاری دستی (mask-free) در یک ویدئوی پسزمینه قرار دهید — طوری که گویی از ابتدا در همان صحنه بوده است.
این روش فشار زیادی روی کاربر نمیگذارد و نتیجه را به شکلی طبیعی و هماهنگ با صحنه تولید میکند.
https://phantom-video.github.io/OmniInsert/
این روش فشار زیادی روی کاربر نمیگذارد و نتیجه را به شکلی طبیعی و هماهنگ با صحنه تولید میکند.
https://phantom-video.github.io/OmniInsert/
❤19👍2
با فرزاد عزیز از فعالان هوش مصنوعی در الکامپ
@AI_DeepMind
همچنین خوشحال میشم اگر دوست داشتید پیج کلاس ویژنو در اینستا دنبال کنید
https://www.instagram.com/class.vision
@AI_DeepMind
همچنین خوشحال میشم اگر دوست داشتید پیج کلاس ویژنو در اینستا دنبال کنید
https://www.instagram.com/class.vision
❤28👍3👌3⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل در تحقیق جدیدی، روشی به نام In-Context Fine-Tuning (ICF) معرفی کرده است که با استفاده از آن، مدل پیشبینی سری زمانی TimesFM میتواند به صورت few-shot، یعنی با تعداد کمی نمونه در زمان اجرا (inference)، تنظیم شود؛ بدون نیاز به آموزش مجدد جداگانه برای هر مجموعه داده.
در هنگام پیشبینی، چند سری زمانی مشابه (به عنوان «نمونه کمکی») همراه با داده هدف به عنوان ورودی به مدل داده میشوند، و مدل با توجه به این مثالها خود را تطبیق میدهد.
در بنچمارکهایی که دادهها از توزیع متفاوت بودند، مدل جدید عملکردی معادل آموزش تحت نظارت (supervised fine-tuning) داشت و نسبت به نسخه پایه TimesFM بهبود ۶٫۸٪ در دقت نشان داد.
عدم نیاز به پیادهسازی و نگهداری چرخههای آموزش مخصوص برای هر دیتاست، کاهش هزینههای عملیاتی و سادهتر شدن استقرار مدلها در محیطهای چند کاربری و متغیر از جمله مزیتهای این روش است.
https://research.google/blog/time-series-foundation-models-can-be-few-shot-learners/
https://icml.cc/virtual/2025/poster/43707
در هنگام پیشبینی، چند سری زمانی مشابه (به عنوان «نمونه کمکی») همراه با داده هدف به عنوان ورودی به مدل داده میشوند، و مدل با توجه به این مثالها خود را تطبیق میدهد.
در بنچمارکهایی که دادهها از توزیع متفاوت بودند، مدل جدید عملکردی معادل آموزش تحت نظارت (supervised fine-tuning) داشت و نسبت به نسخه پایه TimesFM بهبود ۶٫۸٪ در دقت نشان داد.
عدم نیاز به پیادهسازی و نگهداری چرخههای آموزش مخصوص برای هر دیتاست، کاهش هزینههای عملیاتی و سادهتر شدن استقرار مدلها در محیطهای چند کاربری و متغیر از جمله مزیتهای این روش است.
https://research.google/blog/time-series-foundation-models-can-be-few-shot-learners/
https://icml.cc/virtual/2025/poster/43707
❤18👍1🔥1