CLASS_VISION Telegram 630
Forwarded from Tensorflow(@CVision) (Alireza Akhavan)
سرفصل های این دوره:

قسمت اول – 18 دقیقه - مقدمات شبکه های بازگشتی
قسمت دوم – 21 دقیقه - یک سلول (واحد) بازگشتی ساده و شبکه بازگشتی
قسمت سوم – 32 دقیقه - پیاده‌سازی تخمین تابع با شبکه‌های بازگشتی ساده
قسمت چهارم – 4 دقیقه - طول دنباله متغیر در شبکه‌های بازگشتی (۱)
قسمت پنجم – 11 دقیقه - طول دنباله متغیر در شبکه‌های بازگشتی (۲)
قسمت شـشـم – 19 دقیقه - محو شدگی و انفجار گرادیان‌ها در شبکه‌های بازگشتی
قسمت هفتم – 26 دقیقه - شبکه‌های GRU
قسمت هشتم – 8 دقیقه - شبکه‌های LSTM
قسمت نهم – 9 دقیقه - دیاگرام شبکه‎های LSTM
قسمت دهم – 9 دقیقه - مثال‌هایی از داده‌های توالی و ترتیبی
قسمت یازدهم – 5 دقیقه - شبکه‌های بازگشتی عمیق
قسمت دوازدهم – 34 دقیقه - تخمین قیمت ارزهای دیجیتال – پیش‌پردازش داده
قسمت سیزدهم – 22 دقیقه - تخمین قیمت ارزهای دیجیتال – بالانس کردن داده‌ها و آموزش
قسمت چهاردهم – 34 دقیقه - شبکه‌های بازگشتی برای طبقه‌بندی ویدیو – مثال تشخیص جهت حرکت توپ
قسمت پانزدهم – 41 دقیقه - مثال دوم طبقه‌بندی ویدیو – بازشناسی عملکرد در ویدیو
قسمت شانزدهم – 32 دقیقه - درک بردار کلمات و بازنمایی آن‌ها
قسمت هفدهم – 11 دقیقه - ویژگی‌های بازنمایی کلمات و لایه Embedding
قسمت هجدهم – 27 دقیقه - مثال عملی آنالوژی با بردار کلمات
قسمت نوزدهم – 14 دقیقه - طبقه‌بندی متن
قسمت بـیـسـتـم – 20 دقیقه - پیاده‌سازی طبقه‌بندی متن با روش Bag-of-Embeddings
قسمت بیست و یکم – 29 دقیقه - طبقه‌بندی متن با شبکه بازگشتی
قسمت بیست و دوم – 57 دقیقه - مدل زبانی – تولید اشعاری شبیه به شاهنامه
قسمت بیست و سوم –16 دقیقه - جمع‌بندی و معرفی شبکه‌های بازگشتی دوطرفه
قسمت بیست و چهارم – 14 دقیقه - مدل‌های توالی به توالی
قسمت بیست و پنجم – 27 دقیقه - مثال عملی Seq2Seq برای فهم رشته عملیات ریاضی
قسمت بیست و شـشـم – 15 دقیقه - مقدمات ترجمه ماشینی
قسمت بیست و هفتم – 15 دقیقه - الگوریتم جست و جوی پرتو
قسمت بیست و هشـتم – 60 دقیقه - مکانیزم توجه در ترجمه ماشینی
قسمت بیست و نهم – 30 دقیقه - پیاده‌سازی ترجمه ماشینی در کراس برای تبدیل تاریخ
قسمت سـی‌ام – 15 دقیقه - روش کمک معلم
قسمت سی و یکم – 41 دقیقه - پیاده‌سازی ترجمه ماشینی با مکانیزم توجه و Teacher Forcing در تنسرفلو ۲
قسمت سی‌ و دوم – 28 دقیقه - شرح تصاویر با توجه بصری


Part 1 – 18 Minutes - Introduction to Recurrent Neural Networks
Part 2 – 21 Minutes - A Simple RNN Unit & RNN Network
Part 3 – 32 Minutes - Sinewave Prediction using RNN
Part 4 – 4 Minutes - Variable RNN sequence lengths (1)
Part 5 – 11 Minutes - Variable RNN sequence lengths (2)
Part 6 – 19 Minutes - Exploding and Vanishing Gradients in RNNs
Part 7 – 26 Minutes - Gated Recurrent Unit (GRU) Networks
Part 8 – 8 Minutes - Long Short-Term Memory (LSTM) Networks
Part 9 – 9 Minutes - LSTM in Picture
Part 10 – 9 Minutes - Examples of Sequential Data
Part 11 – 5 Minutes - Deep RNNs
Part 12 – 34 Minutes - Cryptocurrency Price Prediction – Data Pre-Processing
Part 13 – 22 Minutes - Cryptocurrency Price Prediction – Handling Imbalanced Data and Model Training
Part 14 – 34 Minutes - RNN for Image Classification – Determining the Direction of the Ball
Part 15 – 41 Minutes - Video Classification and Action Recognition using RNN
Part 16 – 32 Minutes - Understanding Word Embeddings
Part 17 – 11 Minutes - Word Analogy, Embedding Layer in Keras
Part 18 – 27 Minutes - Solving Analogies by Representing Words as Vectors
Part 19 – 14 Minutes - Text Classification
Part 20 – 20 Minutes - Bag-of-Embeddings for Text Classification
Part 21 – 29 Minutes - Text Classification with an RNN
Part 22 – 57 Minutes - Text Generation with an RNN (Language Model)
Part 23 – 16 Minutes - Review – Bidirectional RNNs
Part 24 – 14 Minutes - Seq2Seq Models
Part 25 – 27 Minutes - Practical Example of Seq2Seq for Understanding the Mathematical Operations
Part 26 – 15 Minutes - Introduction to Machine Translation
Part 27 – 15 Minutes - Beam Search
Part 28 – 60 Minutes - Attention in Neural Machine Translation
Part 29 – 30 Minutes - Neural Machine Translation for Converting Date in Keras
Part 30 – 15 Minutes - Teacher Forcing
Part 31 – 41 Minutes - Neural Machine Translation with Attention and Teacher Forcingin TF2.0
Part 32 – 28 Minutes - Image Captioning with Visual Attention



tgoop.com/class_vision/630
Create:
Last Update:

سرفصل های این دوره:

قسمت اول – 18 دقیقه - مقدمات شبکه های بازگشتی
قسمت دوم – 21 دقیقه - یک سلول (واحد) بازگشتی ساده و شبکه بازگشتی
قسمت سوم – 32 دقیقه - پیاده‌سازی تخمین تابع با شبکه‌های بازگشتی ساده
قسمت چهارم – 4 دقیقه - طول دنباله متغیر در شبکه‌های بازگشتی (۱)
قسمت پنجم – 11 دقیقه - طول دنباله متغیر در شبکه‌های بازگشتی (۲)
قسمت شـشـم – 19 دقیقه - محو شدگی و انفجار گرادیان‌ها در شبکه‌های بازگشتی
قسمت هفتم – 26 دقیقه - شبکه‌های GRU
قسمت هشتم – 8 دقیقه - شبکه‌های LSTM
قسمت نهم – 9 دقیقه - دیاگرام شبکه‎های LSTM
قسمت دهم – 9 دقیقه - مثال‌هایی از داده‌های توالی و ترتیبی
قسمت یازدهم – 5 دقیقه - شبکه‌های بازگشتی عمیق
قسمت دوازدهم – 34 دقیقه - تخمین قیمت ارزهای دیجیتال – پیش‌پردازش داده
قسمت سیزدهم – 22 دقیقه - تخمین قیمت ارزهای دیجیتال – بالانس کردن داده‌ها و آموزش
قسمت چهاردهم – 34 دقیقه - شبکه‌های بازگشتی برای طبقه‌بندی ویدیو – مثال تشخیص جهت حرکت توپ
قسمت پانزدهم – 41 دقیقه - مثال دوم طبقه‌بندی ویدیو – بازشناسی عملکرد در ویدیو
قسمت شانزدهم – 32 دقیقه - درک بردار کلمات و بازنمایی آن‌ها
قسمت هفدهم – 11 دقیقه - ویژگی‌های بازنمایی کلمات و لایه Embedding
قسمت هجدهم – 27 دقیقه - مثال عملی آنالوژی با بردار کلمات
قسمت نوزدهم – 14 دقیقه - طبقه‌بندی متن
قسمت بـیـسـتـم – 20 دقیقه - پیاده‌سازی طبقه‌بندی متن با روش Bag-of-Embeddings
قسمت بیست و یکم – 29 دقیقه - طبقه‌بندی متن با شبکه بازگشتی
قسمت بیست و دوم – 57 دقیقه - مدل زبانی – تولید اشعاری شبیه به شاهنامه
قسمت بیست و سوم –16 دقیقه - جمع‌بندی و معرفی شبکه‌های بازگشتی دوطرفه
قسمت بیست و چهارم – 14 دقیقه - مدل‌های توالی به توالی
قسمت بیست و پنجم – 27 دقیقه - مثال عملی Seq2Seq برای فهم رشته عملیات ریاضی
قسمت بیست و شـشـم – 15 دقیقه - مقدمات ترجمه ماشینی
قسمت بیست و هفتم – 15 دقیقه - الگوریتم جست و جوی پرتو
قسمت بیست و هشـتم – 60 دقیقه - مکانیزم توجه در ترجمه ماشینی
قسمت بیست و نهم – 30 دقیقه - پیاده‌سازی ترجمه ماشینی در کراس برای تبدیل تاریخ
قسمت سـی‌ام – 15 دقیقه - روش کمک معلم
قسمت سی و یکم – 41 دقیقه - پیاده‌سازی ترجمه ماشینی با مکانیزم توجه و Teacher Forcing در تنسرفلو ۲
قسمت سی‌ و دوم – 28 دقیقه - شرح تصاویر با توجه بصری


Part 1 – 18 Minutes - Introduction to Recurrent Neural Networks
Part 2 – 21 Minutes - A Simple RNN Unit & RNN Network
Part 3 – 32 Minutes - Sinewave Prediction using RNN
Part 4 – 4 Minutes - Variable RNN sequence lengths (1)
Part 5 – 11 Minutes - Variable RNN sequence lengths (2)
Part 6 – 19 Minutes - Exploding and Vanishing Gradients in RNNs
Part 7 – 26 Minutes - Gated Recurrent Unit (GRU) Networks
Part 8 – 8 Minutes - Long Short-Term Memory (LSTM) Networks
Part 9 – 9 Minutes - LSTM in Picture
Part 10 – 9 Minutes - Examples of Sequential Data
Part 11 – 5 Minutes - Deep RNNs
Part 12 – 34 Minutes - Cryptocurrency Price Prediction – Data Pre-Processing
Part 13 – 22 Minutes - Cryptocurrency Price Prediction – Handling Imbalanced Data and Model Training
Part 14 – 34 Minutes - RNN for Image Classification – Determining the Direction of the Ball
Part 15 – 41 Minutes - Video Classification and Action Recognition using RNN
Part 16 – 32 Minutes - Understanding Word Embeddings
Part 17 – 11 Minutes - Word Analogy, Embedding Layer in Keras
Part 18 – 27 Minutes - Solving Analogies by Representing Words as Vectors
Part 19 – 14 Minutes - Text Classification
Part 20 – 20 Minutes - Bag-of-Embeddings for Text Classification
Part 21 – 29 Minutes - Text Classification with an RNN
Part 22 – 57 Minutes - Text Generation with an RNN (Language Model)
Part 23 – 16 Minutes - Review – Bidirectional RNNs
Part 24 – 14 Minutes - Seq2Seq Models
Part 25 – 27 Minutes - Practical Example of Seq2Seq for Understanding the Mathematical Operations
Part 26 – 15 Minutes - Introduction to Machine Translation
Part 27 – 15 Minutes - Beam Search
Part 28 – 60 Minutes - Attention in Neural Machine Translation
Part 29 – 30 Minutes - Neural Machine Translation for Converting Date in Keras
Part 30 – 15 Minutes - Teacher Forcing
Part 31 – 41 Minutes - Neural Machine Translation with Attention and Teacher Forcingin TF2.0
Part 32 – 28 Minutes - Image Captioning with Visual Attention

BY 🚀 کلاس‌ویژن | یادگیری هوش مصنوعی از پایه تا پیشرفته


Share with your friend now:
tgoop.com/class_vision/630

View MORE
Open in Telegram


Telegram News

Date: |

A Telegram channel is used for various purposes, from sharing helpful content to implementing a business strategy. In addition, you can use your channel to build and improve your company image, boost your sales, make profits, enhance customer loyalty, and more. Matt Hussey, editorial director of NEAR Protocol (and former editor-in-chief of Decrypt) responded to the news of the Telegram group with “#meIRL.” End-to-end encryption is an important feature in messaging, as it's the first step in protecting users from surveillance. While some crypto traders move toward screaming as a coping mechanism, many mental health experts have argued that “scream therapy” is pseudoscience. Scientific research or no, it obviously feels good. ZDNET RECOMMENDS
from us


Telegram 🚀 کلاس‌ویژن | یادگیری هوش مصنوعی از پایه تا پیشرفته
FROM American