LLM_HUGGINGFACE Telegram 8
📚 فصل 1: آشنایی با مدل‌های زبانی بزرگ و چرخه عمر پروژه

در این فصل، با مفاهیم پایه‌ای LLMها آشنا می‌شیم. یاد می‌گیریم چطور این مدل‌ها کار می‌کنن، چه کاربردهایی دارن، چطور متن تولید می‌کنن و چطور پروژه‌های مبتنی بر هوش مصنوعی مولد رو مدیریت کنیم. همچنین با Hugging Face و Google Colab کار می‌کنیم.

سرفصل‌های این فصل:

     هوش مصنوعی مولد و مدلهای زبانی بزرگ (Generative AI & Large Language Models)

موارد استفاده و وظایف (Use cases & tasks)

نحوه کار مدل‌های زبانی بزرگ - معماری ترنسفورمرها (How LLMs work - Transformers architecture)

ترنسفورمرها - بخش 1 (Transformers - part1)

ترنسفورمرها - بخش 2 (Transformers - part2)

تولید متن با ترنسفورمرها (Generating text with transformers)

پرامپت (پرسش‌دهی) و مهندسی پرامپ (Prompting and prompt engineering)

پارامترهای پیکربندی تولیدی برای استنتاج - بخش 1 (Generative configuration parameters for inference - part 1)

پارامترهای پیکربندی تولیدی برای استنتاج - بخش 2 (Generative configuration parameters for inference - part 2)

شروع کار با LLM در Google Colab: از Hugging Face تا آماده‌سازی دیتاست (Getting Started with LLMs in Google Colab: From Hugging Face to Dataset Preparation)

مفهوم Tokenization و اجرای Zero-Shot مدل (Tokenization and Zero-Shot Inference with LLMs)

پروژه خلاصه‌سازی در پایتون: از Zero تا Few-Shot با LLM و In-Context Learning (Summarization Project in Python: Zero to Few-Shot with LLMs and In-Context Learning)

چرخه حیات پروژه هوش مصنوعی مولد (Generative AI project lifecycle)



#مدل_زبانی_بزرگ
🔥4👍1



tgoop.com/llm_huggingface/8
Create:
Last Update:

📚 فصل 1: آشنایی با مدل‌های زبانی بزرگ و چرخه عمر پروژه

در این فصل، با مفاهیم پایه‌ای LLMها آشنا می‌شیم. یاد می‌گیریم چطور این مدل‌ها کار می‌کنن، چه کاربردهایی دارن، چطور متن تولید می‌کنن و چطور پروژه‌های مبتنی بر هوش مصنوعی مولد رو مدیریت کنیم. همچنین با Hugging Face و Google Colab کار می‌کنیم.

سرفصل‌های این فصل:

     هوش مصنوعی مولد و مدلهای زبانی بزرگ (Generative AI & Large Language Models)

موارد استفاده و وظایف (Use cases & tasks)

نحوه کار مدل‌های زبانی بزرگ - معماری ترنسفورمرها (How LLMs work - Transformers architecture)

ترنسفورمرها - بخش 1 (Transformers - part1)

ترنسفورمرها - بخش 2 (Transformers - part2)

تولید متن با ترنسفورمرها (Generating text with transformers)

پرامپت (پرسش‌دهی) و مهندسی پرامپ (Prompting and prompt engineering)

پارامترهای پیکربندی تولیدی برای استنتاج - بخش 1 (Generative configuration parameters for inference - part 1)

پارامترهای پیکربندی تولیدی برای استنتاج - بخش 2 (Generative configuration parameters for inference - part 2)

شروع کار با LLM در Google Colab: از Hugging Face تا آماده‌سازی دیتاست (Getting Started with LLMs in Google Colab: From Hugging Face to Dataset Preparation)

مفهوم Tokenization و اجرای Zero-Shot مدل (Tokenization and Zero-Shot Inference with LLMs)

پروژه خلاصه‌سازی در پایتون: از Zero تا Few-Shot با LLM و In-Context Learning (Summarization Project in Python: Zero to Few-Shot with LLMs and In-Context Learning)

چرخه حیات پروژه هوش مصنوعی مولد (Generative AI project lifecycle)



#مدل_زبانی_بزرگ

BY آموزش LLM و VLM


Share with your friend now:
tgoop.com/llm_huggingface/8

View MORE
Open in Telegram


Telegram News

Date: |

Some Telegram Channels content management tips Telegram users themselves will be able to flag and report potentially false content. The initiatives announced by Perekopsky include monitoring the content in groups. According to the executive, posts identified as lacking context or as containing false information will be flagged as a potential source of disinformation. The content is then forwarded to Telegram's fact-checking channels for analysis and subsequent publication of verified information. Over 33,000 people sent out over 1,000 doxxing messages in the group. Although the administrators tried to delete all of the messages, the posting speed was far too much for them to keep up. Unlimited number of subscribers per channel
from us


Telegram آموزش LLM و VLM
FROM American