Local LLM Eğitim Modülü
Kendi cihazınızda veya sunucunuzda çalışan büyük dil modellerini (LLM) kurmayı, optimize etmeyi ve uygulamalarda kullanmayı öğrenin. Gizlilik odaklı yapay zeka deneyimlerine adım atın.
Modül Detayları
- 🧠 LLM (Large Language Model) Kavramlarına Giriş
- 🔹 Bulut tabanlı ve yerel LLM farkları
- 💻 Yerel LLM Kurulumu
- 🔹 Donanım gereksinimleri
- 🔹 GPU, CPU ve RAM optimizasyonları
- 📦 Hugging Face, Ollama, LM Studio ve benzeri araçlarla model indirme
- ⚙️ Çalıştırma ve İnferans
- 🔹 Prompting teknikleri
- 🔹 Inference hızlandırma yöntemleri (quantization, batching, caching)
- 🛠️ İnce Ayar (Fine-Tuning)
- 🔹 LoRA, QLoRA ve Adapter tabanlı yöntemler
- 🔹 Veri hazırlama ve domain’e özel model geliştirme
- 🌐 Uygulama Entegrasyonları
- 🔹 Chatbot, arama motoru, veri analizi senaryoları
- 🔹 API ile kullanım ve Docker dağıtımı
- 🔒 Güvenlik ve Gizlilik
- 🔹 Yerel kullanımın avantajları
- 🔹 Model filtreleme ve denetim yöntemleri
Hedef Kitle: Yapay zeka geliştiricileri, veri mühendisleri, sistem yöneticileri, kurumsal gizlilik gereksinimi olan şirketler, AI projelerinde bağımsızlık isteyen profesyoneller.
Önkoşullar: Python ve temel makine öğrenmesi bilgisi, Linux/conda ortamına hakimiyet (zorunlu değil, önerilir).
Süre: 20 saat
Eğitim Türü: Yüz yüze, Çevrimiçi Eş Zamanlı