Telegram Web
دو قسمت قابل پخش پاسخش به من ؛)
🤯10👀8👍31🤔1
👀6👏1
IMG_20250827_213447_634.jpg
8.5 KB
پاسخش به یکی از نویسنده های کانالمون
👀12🤯73
چرا مدل‌های زبانی دچار توهم (Hallucination) می‌شوند؟

بر اساس گزارشی از OpenAI، پدیده توهم‌زایی (Hallucination) در مدل‌های زبانی بزرگ (LLMs) یک نقص ناشناخته و black-box نیست، بلکه نتیجه‌ای کاملاً قابل پیش‌بینی از نحوه آموزش و ارزیابی این مدلهاست. این مشکل به دو بخش اصلی تقسیم می‌شود:

1️⃣ پیش‌آموزش (pretraining)
2️⃣ پس‌آموزش (post-training)

1️⃣بخش اول: مشکلات به دلیل فاز Pretraining

توهم‌زایی از نظر آماری یک خطای طبیعی است. حتی اگر داده‌های آموزشی کاملاً بدون خطا باشند، مدل‌ها برای تخمین توزیع زبان بهینه می‌شوند و در این فرآیند، خطاهایی تولید می‌کنند. این پدیده شباهت دارد به مشکل "طبقه‌بندی دودویی" (آیا یک خروجی معتبر است؟)، اما مدل‌های زبانی باید پاسخ‌های کامل و معتبر تولید کنند که کار بسیار دشوارتری است.

یک عامل کلیدی در این مرحله، "نرخ تک‌نمونه" (Singleton Rate) است. این نرخ نشان می‌دهد چه تعداد از حقایق در داده‌های آموزشی فقط یک بار تکرار شده‌اند. برای مثال، اگر 20% از تاریخ‌های تولد تنها یک بار در مجموعه داده‌ها وجود داشته باشند، انتظار می‌رود مدل در حداقل 20% موارد درباره این حقایق توهم کند!

2️⃣بخش دوم: تشدید در Post-training

علیرغم تکنیک‌هایی مانند RLHF (یادگیری تقویتی از بازخورد انسانی) که برای کاهش توهم طراحی شده‌اند، این پدیده همچنان ادامه دارد. چرا؟ چون معیارهای ارزیابی رایج، مانند بنچمارک‌های باینری (صفر و یک)، به حدس زدن پاداش می‌دهند.

در یک سیستم نمره‌دهی باینری، پاسخ صحیح 1 امتیاز می‌گیرد، اما پاسخ‌های مبهم یا "نمی‌دانم" (I Don't Know) صفر امتیاز دارند. این ساختار مدل را به «حالت امتحان‌دهی» سوق می‌دهد و آن را تشویق می‌کند تا به جای اعتراف به عدم قطعیت، یک پاسخ نادرست اما قابل‌باور تولید کند. این "اپیدمی" جریمه‌کردن عدم قطعیت، باعث می‌شود مدل‌ها همیشه حدس بزنند تا امتیاز بیشتری کسب کنند، حتی اگر از پاسخشان مطمئن نباشند.

راه‌حل پیشنهادی: اصلاح ساختار ارزیابی

این گزارش پیشنهاد می‌کند به جای ساخت بنچمارک‌های جدید، نحوه نمره‌دهی بنچمارک‌های موجود اصلاح شود. برای حل این مشکل، باید:

⏺️ امتیازدهی به "نمی‌دانم": به مدل‌ها اجازه داده شود بدون جریمه‌شدن، عدم قطعیت خود را ابراز کنند و حتی برای آن امتیازی در نظر گرفته شود.

⏺️تعریف آستانه‌های اطمینان: دستورالعمل‌های ارزیابی باید صراحتاً مشخص کنند که مدل تنها در صورت اطمینان بالای یک آستانه مشخص (مثلاً 75%) پاسخ دهد.

این تغییرات "جامعه‌فنی" می‌تواند به مدل‌ها انگیزه دهد تا صادقانه‌تر و قابل‌اعتمادتر باشند و زمینه را برای توسعه سیستم‌های هوش مصنوعی قابل اطمینان‌تر فراهم کند.
👍244
🎉 به مناسبت روز برنامه‌نویس 🎉

برنامه‌نویسی یعنی ساختن، حل مسئله و تبدیل ایده به واقعیت. هر مهارت جدیدی که یاد می‌گیری، یه قدم به آینده روشن‌تر نزدیک‌تر می‌شی.

📌 مکتب‌خونه ۵۰ دوره پرمخاطب برنامه‌نویسی رو رایگان کرده!
کافیه دوره دلخواهت رو انتخاب کنی، تیک «دسترسی کامل» رو برداری و کد تخفیف:
👉 HELLOWORLD
رو وارد کنی تا دوره برات رایگان بشه.

این کد فقط تا یکشنبه ۲۳ شهریور فعاله و می‌تونی باهاش یه دوره رو رایگان برداری.

🔗 دوره پیشنهادی: آموزش جامع یادگیری عمیق (Deep Learning) با Tensorflow و Keras

📚 بقیه دوره‌های رایگان رو هم اینجا ببینید:
https://mktb.me/tuj6/
🔥146
Forwarded from DeepMind AI Expert (Farzad 🦅)
دوره #آموزشی #امنیت #هوش_مصنوعی از دانشگاه هاروارد منتشر شد. این دوره به مرور در یوتیوب اپدیت میگردد.

▪️ CS 2881 AI Safety
▪️ AI Safety

#یادگیری_تقویتی #کلاس_آموزشی #منابع #فیلم

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person
👍51
لطفاً در صورتی که پیش‌تر در دوره LLM مکتب‌خونه ثبت‌نام کرده‌اید، به کانال مربوط به این دوره بپیوندید:
🔗 کانال تلگرام دوره
7👍1
Forwarded from آموزش LLM و VLM
🚀 نوت‌بوک‌های جدید دوره Vision-Language Models (VLM) روی گیت‌هاب قرار گرفت!

👈از شماره 20 تا 35

https://github.com/Alireza-Akhavan/LLM

📢[این دوره به عنوان کورس ادامه LLM به زودی منتشر میگردد]

مباحث کلیدی که پوشش داده شده:

بررسی CLIP و SigLIP

👁 درک تصویر و ویدیو با VLM‌ها

🔧 فاین‌تیون با روش SFT

⚡️ بهینه‌سازی ترجیحات با DPO / GRPO / MPO

🐇 استفاده از Unsloth برای آموزش سریع‌تر و بهینه‌تر

📌 اگر به مباحث مولتی‌مدال و فاین‌تیون مدل‌های Vision-Language علاقه‌مندید، این بخش رو از دست ندید!
❤‍🔥1410
This media is not supported in your browser
VIEW IN TELEGRAM
ربات رزمی‌کار چینی
👀17🤯8👍32👏1
🚀 نسخه جدید Deep Learning with Python: رایگان + محتوای LLM و GenAI

توئیت 16 ساعت پیش François Chollet:

ویرایش سوم کتاب من با عنوان Deep Learning with Python هم‌اکنون در حال چاپ است و ظرف دو هفته آینده در کتاب‌فروشی‌ها خواهد بود. شما می‌توانید آن را همین حالا از آمازون یا انتشارات Manning سفارش دهید.

این بار، ما کل کتاب را به‌صورت یک وب‌سایت کاملاً رایگان منتشر می‌کنیم.

برایم مهم نیست اگر این کار باعث کاهش فروش کتاب شود؛ من فکر می‌کنم این بهترین مقدمه برای یادگیری عمیق است و افراد بیشتری باید بتوانند آن را بخوانند.

🔗کتاب آنلاین رایگان:
https://deeplearningwithpython.io/

ویرایش جدید محتوای بسیار بیشتری در زمینه هوش مصنوعی مولد دارد. همچنین شامل مباحث پایه‌ای JAX و PyTorch و تمام قابلیت‌های جدید در Keras 3 می‌شود.

مقدار زیادی محتوای جدید درباره مدل‌های زبانی بزرگ (LLM) و جریان‌های کاری مبتنی بر LLM نیز اضافه شده است.

🌀 @cvision 🌀
👍299🔥7👏21
This media is not supported in your browser
VIEW IN TELEGRAM
مدل OmniInsert به شما امکان می‌دهد که هر جسم یا سوژه‌ای را بدون ماسک‌گذاری دستی (mask-free) در یک ویدئوی پس‌زمینه قرار دهید — طوری که گویی از ابتدا در همان صحنه بوده است.
این روش فشار زیادی روی کاربر نمی‌گذارد و نتیجه را به شکلی طبیعی و هماهنگ با صحنه تولید می‌کند.

https://phantom-video.github.io/OmniInsert/
19👍2
با فرزاد عزیز از فعالان هوش مصنوعی در الکامپ
@AI_DeepMind


همچنین خوشحال میشم اگر دوست داشتید پیج کلاس ویژنو در اینستا دنبال کنید

https://www.instagram.com/class.vision
28👍3👌31
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل در تحقیق جدیدی، روشی به نام In-Context Fine-Tuning (ICF) معرفی کرده است که با استفاده از آن، مدل پیش‌بینی سری زمانی TimesFM می‌تواند به صورت few-shot، یعنی با تعداد کمی نمونه در زمان اجرا (inference)، تنظیم شود؛ بدون نیاز به آموزش مجدد جداگانه برای هر مجموعه داده.


در هنگام پیش‌بینی، چند سری زمانی مشابه (به عنوان «نمونه کمکی») همراه با داده هدف به عنوان ورودی به مدل داده می‌شوند، و مدل با توجه به این مثال‌ها خود را تطبیق می‌دهد.

در بنچمارک‌هایی که داده‌ها از توزیع متفاوت بودند، مدل جدید عملکردی معادل آموزش تحت نظارت (supervised fine-tuning) داشت و نسبت به نسخه پایه TimesFM بهبود ۶٫۸٪ در دقت نشان داد.

عدم نیاز به پیاده‌سازی و نگهداری چرخه‌های آموزش مخصوص برای هر دیتاست، کاهش هزینه‌های عملیاتی و ساده‌تر شدن استقرار مدل‌ها در محیط‌های چند کاربری و متغیر از جمله مزیتهای این روش است.

https://research.google/blog/time-series-foundation-models-can-be-few-shot-learners/

https://icml.cc/virtual/2025/poster/43707
18👍1🔥1
مدل مولتی مدال Qwen 3-VL منتشر شد:


این VLM همون توانایی‌های Qwen2.5 VL مثل درک ویدیو و تصویر و چارت و ... را داره، ولی خیلی دقیق‌تر، با حافظه خیلی بلندتر، و از همه مهمتر با قابلیت عامل‌محور (Agentic) قوی‌تر.

Blog:
https://qwen.ai/blog?id=99f0335c4ad9ff6153e517418d48535ab6d8afef&from=research.latest-advancements-list

Github:
https://github.com/QwenLM/Qwen3-VL
11
این AI را برای ساخت اسلاید حتما تست کنید

https://www.kimi.com/kimiplus/cvvm7bkheutnihqi2100

من خودم یه pdf پروپوزال دادم، و با کمی تغییرات از روش ارائه دادم...
17❤‍🔥1
2025/10/17 07:13:12
Back to Top
HTML Embed Code: