دوره فاینتیونینگ و بهینهسازی مدلها
در هوش مصنوعی
ایجاد شده توسط
بهنام سلطان رضایی
فصل 1: انواع Fine-tuning
Full Fine-tuning vs Parameter-Efficient Fine-tuning (PEFT)
Supervised Fine-tuning (SFT)
Instruction Fine-tuning
Domain-specific Fine-tuning
Constitutional AI Training
Dataset Preparation
پروژه عملی: Fine-tuning برای دامنه خاص
فصل 2: PEFT و تکنیکهای بهینهسازی
Low-Rank Adaptation (LoRA)
Quantized LoRA (QLoRA)
AdaLoRA و IA3 Techniques
Adapters و Prefix Tuning
4-bit Normal Float (NF4)
Performance vs Quality Trade-offs
پروژه عملی: LoRA Implementation
فصل 3: Reinforcement Learning from Human Feedback (RLHF)
اصول RLHF
Reward Model Training
Proximal Policy Optimization (PPO)
Direct Preference Optimization (DPO)
Human Feedback Collection
RLAIF (AI Feedback)
پروژه عملی: RLHF Pipeline
فصل 4: Model Optimization Techniques
Quantization: Post-training و Quantization-Aware Training
GPTQ و AWQ Quantization
Pruning: Structured و Unstructured
Knowledge Distillation
Model Compression Strategies
Edge Deployment Optimization
پروژه عملی: Model Compression Pipeline
فصل 5: Local Model Deployment
Ollama Setup و Management
vLLM - High-Performance Inference
Text Generation Inference (TGI)
LM Studio - GUI Model Management
Llamafile - Single-File Deployment
Model Quantization for Local Use
پروژه عملی: Local LLM Server
هر ایده شگفتانگیز AI بدون یک معمار ماهر، در آزمایشگاه
باقی میماند! بزرگترین مشکل استارتاپهای AI این است که نمیتوانند سیستمهایشان را به اندازه
کافی مقیاسپذیر، سریع و امن کنند. اما کسانی که این مهارت را دارند، به عنوان
گرانترین متخصصان دنیای فناوری شناخته میشوند!
در این دوره حرفهای، شما یاد میگیرید که چگونه سیستمهای AI را برای میلیونها کاربر طراحی کنید، امنیت آنها را تضمین کنید، و کاراییشان را بهینه کنید. از LLMOps گرفته تا Cloud Deployment و Container Orchestration - همه چیز آنچه که برای تبدیل شدن به معمار سیستمهای AI سطح enterprise نیاز دارید. این شغل آینده با بالاترین حقوقها در صنعت فناوری است!
دوره را با دوستان خود به اشتراک بگذارید