امروز سایت deep-ml.com رو بررسی کردم؛ این سایت، شامل یکسری مساله تمرینی در حوزه هوش مصنوعی هست. برای هر مساله توضیحاتی ارائه شده و میشه بهصورت آنلاین کدنویسی و نتیجه رو برای چک کردن سابمیت کرد.
بیشتر تمریناتش مربوط به جبر خطی، یادگیری ماشین و یادگیری عمیق هست. فقط یک یا دو مساله برای بینایی کامپیوتر و پردازش زبان طبیعی داره. امیدوارم، مسالهها بیشتر بشه. خودم علاقهمند شدم که در طراحی مساله باهاشون همکاری کنم! :)
به عنوان معلم، همیشه به دوستان پیشنهاد کردم که در آموزش صرفا تماشاگر نباشید و حتما روی مباحث تئوری و کدنویسی تمرین حل کنید.
@pytorch_howsam
بیشتر تمریناتش مربوط به جبر خطی، یادگیری ماشین و یادگیری عمیق هست. فقط یک یا دو مساله برای بینایی کامپیوتر و پردازش زبان طبیعی داره. امیدوارم، مسالهها بیشتر بشه. خودم علاقهمند شدم که در طراحی مساله باهاشون همکاری کنم! :)
به عنوان معلم، همیشه به دوستان پیشنهاد کردم که در آموزش صرفا تماشاگر نباشید و حتما روی مباحث تئوری و کدنویسی تمرین حل کنید.
@pytorch_howsam
قبلا، چند تا کتاب درباره LLM معرفی کرده بودم. توی دو ماه گذشته مشغول مطالعه دو کتاب زیر بودم:
کتاب درباره Build a Large Language Model از Sebastian Raschka
کتاب Hands-on LLMs از آقای Jay Alammar
احتمالا یک نقد و بررسی از اون دو کتاب مینویسم. فعلا، در این حد بگم که هر دو کتاب خوب هستن و ارزش خوندن دارن.
اما، الان به این فکر میکنم که بعد از این کتابها چه کتابی مطالعه کنم؛ تمایل دارم، کتابی انتخاب کنم که تمرکز بیشتری روی پروداکشن داشته باشه. خوشبختانه، چند تا کتاب از Manning دیدم که جالب هستن. هنوز دقیق بررسی نکردم، اما لیست کتابها رو اینجا میذارم:
کتاب LLMs in Production (از فهرست مطالب این کتاب خیلی خوشم اومد)
کتاب AI Agents in Action (فهرست مطالب خوبی داره)
کتاب Generative AI in Action (بعید هست کتاب بعدیم این باشه)
کتاب Build LLM Applications (from Scratch) (هنوز کامل منتشر نشده)
کتاب Hugging Face in Action (🧐)
این کتاب هم فهرست مطالب خوبی داره:
کتاب LLM Engineer's Handbook
بعدا نتیجه بررسی و مطالعه کتابها رو اینجا مینویسم.
کتاب درباره Build a Large Language Model از Sebastian Raschka
کتاب Hands-on LLMs از آقای Jay Alammar
احتمالا یک نقد و بررسی از اون دو کتاب مینویسم. فعلا، در این حد بگم که هر دو کتاب خوب هستن و ارزش خوندن دارن.
اما، الان به این فکر میکنم که بعد از این کتابها چه کتابی مطالعه کنم؛ تمایل دارم، کتابی انتخاب کنم که تمرکز بیشتری روی پروداکشن داشته باشه. خوشبختانه، چند تا کتاب از Manning دیدم که جالب هستن. هنوز دقیق بررسی نکردم، اما لیست کتابها رو اینجا میذارم:
کتاب LLMs in Production (از فهرست مطالب این کتاب خیلی خوشم اومد)
کتاب AI Agents in Action (فهرست مطالب خوبی داره)
کتاب Generative AI in Action (بعید هست کتاب بعدیم این باشه)
کتاب Build LLM Applications (from Scratch) (هنوز کامل منتشر نشده)
کتاب Hugging Face in Action (🧐)
این کتاب هم فهرست مطالب خوبی داره:
کتاب LLM Engineer's Handbook
بعدا نتیجه بررسی و مطالعه کتابها رو اینجا مینویسم.
This media is not supported in your browser
VIEW IN TELEGRAM
کگل و کولب!
به روشی که در ویدئوی بالا گفته شده، میتونید نوتبوک کگل رو در کولب باز کنید. عالی!🤌
@pytorch_howsam
به روشی که در ویدئوی بالا گفته شده، میتونید نوتبوک کگل رو در کولب باز کنید. عالی!
@pytorch_howsam
Please open Telegram to view this post
VIEW IN TELEGRAM
دو خبر جالب!
گوگل، لیستی شامل 321 نمونه واقعی استفاده از Gen AI در شرکتها و سازمانها رو منتشر کرده. لینک
مدل DeepSeek-V3 از لحاظ دقت و سرعت موردتوجه قرار گرفته. مشابه با ChatGPT میشه از این سرویس هم استفاده کرد. سرعت تولید متنش جالب توجه هست! ثبتنام بدون دردسری داره. لینک
@pytorch_howsam
گوگل، لیستی شامل 321 نمونه واقعی استفاده از Gen AI در شرکتها و سازمانها رو منتشر کرده. لینک
مدل DeepSeek-V3 از لحاظ دقت و سرعت موردتوجه قرار گرفته. مشابه با ChatGPT میشه از این سرویس هم استفاده کرد. سرعت تولید متنش جالب توجه هست! ثبتنام بدون دردسری داره. لینک
@pytorch_howsam
بریدهای از کتاب Hands-on LLMs!
در فصل 6 کتاب، درباره مهندسی پرامپت (Prompt Engineering) صحبت شده. در یکی از بخشهای این فصل درباره استدلال یا Reasoning در مدلهای مولد توضیح داده شده. در ادامه، خلاصه این بخش رو آوردم...
کتاب، قبل از اینکه درباره استدلال در مدلهای مولد صحبت کنه، به استدلال در انسان اشاره میکنه. گریزی به کتاب معروف Thikning, Fast and Slow اثر Daniel Kahneman میزنه. این کتاب درباره روشهای فکر کردن انسانهاست و ارتباطی به هوش مصنوعی نداره. این کتاب میگه، به طور کلی، روشهای فکر کردن ما به دو دسته تقسیم میشن: سیستم ۱ و سیستم ۲؛ سیستم ۱ خودکار و سریع هست؛ مثل وقتی که یک چیزی رو سریع حدس میزنی یا احساسی تصمیم میگیری. این سیستم شبیه مدلهای مولد هست که بدون فکر کردن، خروجی تولید میکنن. از طرف دیگه، سیستم ۲، آهستهتر و منطقیتر هست؛ مثلا، وقتی که با دقت فکر میکنی یا یک مساله پیچیده ریاضی حل میکنی. حالا، در LLM تلاش میشه که سیستم 2 پیادهسازی بشه تا مدل قبل از پاسخ دادن، فکر کنه.
کتاب دو روش استدلال رو معرفی میکنه:
1. زنجیره تفکر (Chain-of-Tought)
2. درخت تفکر (Tree-of-Tought)
1. روش Chain-of-Tought:
به جای اینکه مدل مستقیم و سریع پاسخ رو تولید کنه، مراحل فکری رسیدن رو هم نشون میده. مثلا، وقتی یک سوال حل مسئله ریاضی بهش داده میشه، اول فرآیند فکر کردن رو مرحله به مرحله توضیح میده و بعد به جواب نهایی میرسه. این کار باعث میشه مدلها در حل مسائل پیچیده بهتر عمل کنن. این تکنیک شبیه روشی هست که آدمها موقع فکر کردن استفاده میکنن؛ یعنی، اول استدلال و بعد نتیجهکیری.
2. روش Tree-of-Thought:
روش پیشرفتهتری نسبت به Chain-of-Thought هست. توی این روش، به جای اینکه مدل فقط یک مسیر خطی از فکر کردن رو دنبال کنه، چندین مسیر فکری مختلف رو بررسی میکنه؛ مثل یک درخت که شاخههای مختلف داره. هر شاخه نماینده یک راهحل یا یک استدلال متفاوت هست. مدل این شاخهها رو ارزیابی میکنه و بهترینشون رو انتخاب میکنه تا به جواب بهتری برسه. تصویر پیوستی مربوط به همین روش استدلال درختی هست.
کتاب Hands-on LLMs رو قبلا اینجا معرفی کردم. کتاب خوبی هست. خودم هم به تازگی مطالعه این کتاب رو تموم کردم.
@pytorch_howsam
در فصل 6 کتاب، درباره مهندسی پرامپت (Prompt Engineering) صحبت شده. در یکی از بخشهای این فصل درباره استدلال یا Reasoning در مدلهای مولد توضیح داده شده. در ادامه، خلاصه این بخش رو آوردم...
کتاب، قبل از اینکه درباره استدلال در مدلهای مولد صحبت کنه، به استدلال در انسان اشاره میکنه. گریزی به کتاب معروف Thikning, Fast and Slow اثر Daniel Kahneman میزنه. این کتاب درباره روشهای فکر کردن انسانهاست و ارتباطی به هوش مصنوعی نداره. این کتاب میگه، به طور کلی، روشهای فکر کردن ما به دو دسته تقسیم میشن: سیستم ۱ و سیستم ۲؛ سیستم ۱ خودکار و سریع هست؛ مثل وقتی که یک چیزی رو سریع حدس میزنی یا احساسی تصمیم میگیری. این سیستم شبیه مدلهای مولد هست که بدون فکر کردن، خروجی تولید میکنن. از طرف دیگه، سیستم ۲، آهستهتر و منطقیتر هست؛ مثلا، وقتی که با دقت فکر میکنی یا یک مساله پیچیده ریاضی حل میکنی. حالا، در LLM تلاش میشه که سیستم 2 پیادهسازی بشه تا مدل قبل از پاسخ دادن، فکر کنه.
کتاب دو روش استدلال رو معرفی میکنه:
1. زنجیره تفکر (Chain-of-Tought)
2. درخت تفکر (Tree-of-Tought)
1. روش Chain-of-Tought:
به جای اینکه مدل مستقیم و سریع پاسخ رو تولید کنه، مراحل فکری رسیدن رو هم نشون میده. مثلا، وقتی یک سوال حل مسئله ریاضی بهش داده میشه، اول فرآیند فکر کردن رو مرحله به مرحله توضیح میده و بعد به جواب نهایی میرسه. این کار باعث میشه مدلها در حل مسائل پیچیده بهتر عمل کنن. این تکنیک شبیه روشی هست که آدمها موقع فکر کردن استفاده میکنن؛ یعنی، اول استدلال و بعد نتیجهکیری.
2. روش Tree-of-Thought:
روش پیشرفتهتری نسبت به Chain-of-Thought هست. توی این روش، به جای اینکه مدل فقط یک مسیر خطی از فکر کردن رو دنبال کنه، چندین مسیر فکری مختلف رو بررسی میکنه؛ مثل یک درخت که شاخههای مختلف داره. هر شاخه نماینده یک راهحل یا یک استدلال متفاوت هست. مدل این شاخهها رو ارزیابی میکنه و بهترینشون رو انتخاب میکنه تا به جواب بهتری برسه. تصویر پیوستی مربوط به همین روش استدلال درختی هست.
کتاب Hands-on LLMs رو قبلا اینجا معرفی کردم. کتاب خوبی هست. خودم هم به تازگی مطالعه این کتاب رو تموم کردم.
@pytorch_howsam
مجموعه Misguided Attention :
این مجموعهای از پِرامپتها (سوالات یا دستورالعملها) است که برای به چالش کشیدن تواناییهای استدلالی مدلهای زبانی بزرگ (LLMs) در حضور اطلاعات گمراهکننده طراحی شدهاند. این پرامپتها تغییرات کوچکی در آزمونهای فکری، معماها یا پارادوکسهای شناختهشده (که به آنها "سوالات پیچیده" نیز گفته میشود) ایجاد میکنند.
رفتار مورد انتظار این است که مدلهای زبانی بزرگ، با استفاده از استدلال منطقی، مشکلات را بهصورت گامبهگام حل کنند. با این حال، بسیاری از مدلها بهدلیل مواجهه مکرر با نسخههای اصلی این مشکلات در دادههای آموزشیشان، بهاشتباه مسئله را تشخیص داده و به جای بررسی جزئیات و حل مسئلهی اصلاحشده، پاسخهایی برای نسخهی اصلی و تغییرنیافتهی مسئله ارائه میدهند. در برخی موارد نیز ممکن است رشتههایی از استدلالهای متناقض مشاهده شود که در یک متن بهطور متناوب ظاهر میشوند.
گیت هاب
این مجموعهای از پِرامپتها (سوالات یا دستورالعملها) است که برای به چالش کشیدن تواناییهای استدلالی مدلهای زبانی بزرگ (LLMs) در حضور اطلاعات گمراهکننده طراحی شدهاند. این پرامپتها تغییرات کوچکی در آزمونهای فکری، معماها یا پارادوکسهای شناختهشده (که به آنها "سوالات پیچیده" نیز گفته میشود) ایجاد میکنند.
رفتار مورد انتظار این است که مدلهای زبانی بزرگ، با استفاده از استدلال منطقی، مشکلات را بهصورت گامبهگام حل کنند. با این حال، بسیاری از مدلها بهدلیل مواجهه مکرر با نسخههای اصلی این مشکلات در دادههای آموزشیشان، بهاشتباه مسئله را تشخیص داده و به جای بررسی جزئیات و حل مسئلهی اصلاحشده، پاسخهایی برای نسخهی اصلی و تغییرنیافتهی مسئله ارائه میدهند. در برخی موارد نیز ممکن است رشتههایی از استدلالهای متناقض مشاهده شود که در یک متن بهطور متناوب ظاهر میشوند.
گیت هاب
PyTorch Howsam
قبلا، چند تا کتاب درباره LLM معرفی کرده بودم. توی دو ماه گذشته مشغول مطالعه دو کتاب زیر بودم: کتاب درباره Build a Large Language Model از Sebastian Raschka کتاب Hands-on LLMs از آقای Jay Alammar احتمالا یک نقد و بررسی از اون دو کتاب مینویسم. فعلا، در این…
خب، از بین این کتابهای کاندیدا (پیام ریپلایشده)، هیچ کدوم رو انتخاب نکردم! 🙃 نه اینکه کتاب خوبی نباشن، بلکه تصمیم گرفتم کتاب جدید تمرکز بیشتری روی بعد علمی داشته باشه، نه عملی و پروداکشن. خلاصه اینکه، یک کتاب خوب بنام Transformers in Action پیدا کردم!
این کتاب، تسکها و معماریهای مختلفی رو پوشش داده که همین فاکتور باعث شد برای مطالعه انتخابش کنم. مثلا، برای هر یک از تسکهای زیر یک فصل جداگانه درنظر گرفته:
Text Summarization
Machine Translation
Text Classification
Text Generation
Multimodal Models
توی هرکدوم از فصلهای بالا، مدلهای معروف رو تشریح کرده. مثلا در فصل Text Generation، مدلهای زیر رو معرفی کرده:
GPT-1 to GPT-3
InstructGPT
GPT-NeoX-20B
Llama
RedPajama
Alpaca
Dolly
Falcon
مطمئن نبودم که کتاب خوبی باشه. تصمیم گرفتم، قبل معرفی در این کانال، کمی مطالعه رو جلو ببرم و ارزیابیش کنم. الان، اواسط فصل سوم این کتاب (Text Summarization) هستم. دیگه به این جمعبندی رسیدم که کتاب خیلی خوبی هست.
لینک کتاب در Manning
@pytorch_howsam
این کتاب، تسکها و معماریهای مختلفی رو پوشش داده که همین فاکتور باعث شد برای مطالعه انتخابش کنم. مثلا، برای هر یک از تسکهای زیر یک فصل جداگانه درنظر گرفته:
Text Summarization
Machine Translation
Text Classification
Text Generation
Multimodal Models
توی هرکدوم از فصلهای بالا، مدلهای معروف رو تشریح کرده. مثلا در فصل Text Generation، مدلهای زیر رو معرفی کرده:
GPT-1 to GPT-3
InstructGPT
GPT-NeoX-20B
Llama
RedPajama
Alpaca
Dolly
Falcon
مطمئن نبودم که کتاب خوبی باشه. تصمیم گرفتم، قبل معرفی در این کانال، کمی مطالعه رو جلو ببرم و ارزیابیش کنم. الان، اواسط فصل سوم این کتاب (Text Summarization) هستم. دیگه به این جمعبندی رسیدم که کتاب خیلی خوبی هست.
لینک کتاب در Manning
@pytorch_howsam
Please open Telegram to view this post
VIEW IN TELEGRAM
PyTorch Howsam
خب، از بین این کتابهای کاندیدا (پیام ریپلایشده)، هیچ کدوم رو انتخاب نکردم! 🙃 نه اینکه کتاب خوبی نباشن، بلکه تصمیم گرفتم کتاب جدید تمرکز بیشتری روی بعد علمی داشته باشه، نه عملی و پروداکشن. خلاصه اینکه، یک کتاب خوب بنام Transformers in Action پیدا کردم! این…
Please open Telegram to view this post
VIEW IN TELEGRAM
#انتقادی! 😁
توی لینکدین، پیامی میذارم که من دنبال کار هستم و لطفا حمایتم کنید تا پیامم دیده بشه و کار پیدا کنم. دعوت به مصاحبه میشم و بعدش به خاطر دیدن یکسری نکات منفی (مثلا، ناهماهنگی در جلسه مصاحبه)، از مصاحبه انصراف میدم و بلافاصله میام در همون لینکدین کل ماجرا رو با جزئیات اما بدون ذکر نام شرکت (اخلاقمدارم آخه!) شرح میدم.
دائم در پستهای مختلف، غر میزنم؛ امروز رفتم سوپرمارکت، اسنپ گرفتم، سر کار این رو گفتم و ...
به این و اون هم لگد میزنم؛ دیگه الان هرکسی که از ننه باباش قهر کرده، استارتاپ زده و ...
آیا به عواقب این رفتارها هم فکر کردم؟ مثلا، این امکان وجود داره که سایر شرکتها با دیدن پستهای من در لینکدین از ارتباطگیری با من منصرف بشن؟ احتمالش هست که کانکشنهام رو از دست بدم؟ قرار بود با لینکدین رزومهسازی کنم نه پروندهسازی!
من، هیچ کجای این ماجرا نیستم. یکسری مسائل رایج در لینکدین رو گفتم...
توی لینکدین، پیامی میذارم که من دنبال کار هستم و لطفا حمایتم کنید تا پیامم دیده بشه و کار پیدا کنم. دعوت به مصاحبه میشم و بعدش به خاطر دیدن یکسری نکات منفی (مثلا، ناهماهنگی در جلسه مصاحبه)، از مصاحبه انصراف میدم و بلافاصله میام در همون لینکدین کل ماجرا رو با جزئیات اما بدون ذکر نام شرکت (اخلاقمدارم آخه!) شرح میدم.
دائم در پستهای مختلف، غر میزنم؛ امروز رفتم سوپرمارکت، اسنپ گرفتم، سر کار این رو گفتم و ...
به این و اون هم لگد میزنم؛ دیگه الان هرکسی که از ننه باباش قهر کرده، استارتاپ زده و ...
آیا به عواقب این رفتارها هم فکر کردم؟ مثلا، این امکان وجود داره که سایر شرکتها با دیدن پستهای من در لینکدین از ارتباطگیری با من منصرف بشن؟ احتمالش هست که کانکشنهام رو از دست بدم؟ قرار بود با لینکدین رزومهسازی کنم نه پروندهسازی!
من، هیچ کجای این ماجرا نیستم. یکسری مسائل رایج در لینکدین رو گفتم...
Please open Telegram to view this post
VIEW IN TELEGRAM
PyTorch Howsam
تصویر بالا، درخت تکامل مدلهای زبانی بزرگ (LLM) رو از سال ۲۰۱۸ تا ۲۰۲۴ نشون میده. نمودار سه شاخه اصلی داره: * شاخه قرمز شامل مدلهای Encoder-only مثل BERT هست. * شاخه سبز شامل مدلهای Encoder-Decoder مثل T5 هست. * شاخه آبی شامل مدلهای Decoder-only مثل…
Please open Telegram to view this post
VIEW IN TELEGRAM
گفتوگوی لکس فریدمن و آندری کارپاتی درباره بهرهوری، تمرکز و تعادل کار و زندگی
این گفتوگو نکات جالبی برای من داشت. اول، خلاصه گفتوگو رو آوردم، بعدش مکالمه با جزئیاتش رو در ادامه گذاشتم. لینک گفتوگو در یوتوب
خلاصه گفتوگو:
برای کاری که میخواد انجام بده، دوست داره رَم مغزش رو با اون کار پر کنه! نسبت بهش وسواس داشته باشه و عمیقا باهاش درگیر بشه (مثلا، حین دوش گرفتن، خوابیدن و غیره هم بهش فکر کنه). نمیتونه به یک روز کاری فکر کنه؛ بلکه، برای عملکرد خوب در یک کار، باید یک بازه زمانی چندروزه درنظر بگیره. دورههای فشرده کوتاه کاری داره؛ مثلا، در یک بازه زمانی چندروزه، بهصورت فشرده روی یک چالشی کار میکنه. این چالش میتونه ماهی یک بار اتفاق بیفته.
گفتوگوی با جزئیات در پست بعدی...
.
این گفتوگو نکات جالبی برای من داشت. اول، خلاصه گفتوگو رو آوردم، بعدش مکالمه با جزئیاتش رو در ادامه گذاشتم. لینک گفتوگو در یوتوب
خلاصه گفتوگو:
برای کاری که میخواد انجام بده، دوست داره رَم مغزش رو با اون کار پر کنه! نسبت بهش وسواس داشته باشه و عمیقا باهاش درگیر بشه (مثلا، حین دوش گرفتن، خوابیدن و غیره هم بهش فکر کنه). نمیتونه به یک روز کاری فکر کنه؛ بلکه، برای عملکرد خوب در یک کار، باید یک بازه زمانی چندروزه درنظر بگیره. دورههای فشرده کوتاه کاری داره؛ مثلا، در یک بازه زمانی چندروزه، بهصورت فشرده روی یک چالشی کار میکنه. این چالش میتونه ماهی یک بار اتفاق بیفته.
گفتوگوی با جزئیات در پست بعدی...
.
YouTube
Day in the life of Andrej Karpathy | Lex Fridman Podcast Clips
Lex Fridman Podcast full episode: https://www.youtube.com/watch?v=cdiD-9MMpb0
Please support this podcast by checking out our sponsors:
- Eight Sleep: https://www.eightsleep.com/lex to get special savings
- BetterHelp: https://betterhelp.com/lex to get 10%…
Please support this podcast by checking out our sponsors:
- Eight Sleep: https://www.eightsleep.com/lex to get special savings
- BetterHelp: https://betterhelp.com/lex to get 10%…