Ara:

Local LLM Eğitim Modülü

Kendi cihazınızda veya sunucunuzda çalışan büyük dil modellerini (LLM) kurmayı, optimize etmeyi ve uygulamalarda kullanmayı öğrenin. Gizlilik odaklı yapay zeka deneyimlerine adım atın.

Modül Detayları

  • 🧠 LLM (Large Language Model) Kavramlarına Giriş
  • 🔹 Bulut tabanlı ve yerel LLM farkları
  • 💻 Yerel LLM Kurulumu
  • 🔹 Donanım gereksinimleri
  • 🔹 GPU, CPU ve RAM optimizasyonları
  • 📦 Hugging Face, Ollama, LM Studio ve benzeri araçlarla model indirme
  • ⚙️ Çalıştırma ve İnferans
  • 🔹 Prompting teknikleri
  • 🔹 Inference hızlandırma yöntemleri (quantization, batching, caching)
  • 🛠️ İnce Ayar (Fine-Tuning)
  • 🔹 LoRA, QLoRA ve Adapter tabanlı yöntemler
  • 🔹 Veri hazırlama ve domain’e özel model geliştirme
  • 🌐 Uygulama Entegrasyonları
  • 🔹 Chatbot, arama motoru, veri analizi senaryoları
  • 🔹 API ile kullanım ve Docker dağıtımı
  • 🔒 Güvenlik ve Gizlilik
  • 🔹 Yerel kullanımın avantajları
  • 🔹 Model filtreleme ve denetim yöntemleri

Hedef Kitle: Yapay zeka geliştiricileri, veri mühendisleri, sistem yöneticileri, kurumsal gizlilik gereksinimi olan şirketler, AI projelerinde bağımsızlık isteyen profesyoneller.

Önkoşullar: Python ve temel makine öğrenmesi bilgisi, Linux/conda ortamına hakimiyet (zorunlu değil, önerilir).

Süre: 20 saat

Eğitim Türü: Yüz yüze, Çevrimiçi Eş Zamanlı