Đề cương khóa học

Giới thiệu về DeepSeek LLM Fine-Tuning

  • Tổng quan về các mô hình DeepSeek, ví dụ: DeepSeek-R1 và DeepSeek-V3
  • Hiểu rõ nhu cầu tinh chỉnh LLM
  • So sánh tinh chỉnh so với kỹ thuật nhắc lệnh (prompt engineering)

Chuẩn bị Bộ Dữ liệu cho Fine-Tuning

  • Tuyển chọn bộ dữ liệu đặc thù theo lĩnh vực
  • Kỹ thuật tiền xử lý và làm sạch dữ liệu
  • Mã hóa (tokenization) và định dạng bộ dữ liệu cho DeepSeek LLM

Thiết lập Môi trường Fine-Tuning

  • Cấu hình GPU và tăng tốc bằng TPU
  • Thiết lập Hugging Face Transformers với DeepSeek LLM
  • Hiểu các siêu tham số (hyperparameters) để tinh chỉnh

Fine-Tuning DeepSeek LLM

  • Triển khai tinh chỉnh có giám sát
  • Sử dụng LoRA (Low-Rank Adaptation) và PEFT (Parameter-Efficient Fine-Tuning)
  • Chạy tinh chỉnh phân tán cho các bộ dữ liệu lớn

Đánh giá và Tối ưu hóa Mô hình Tinh chỉnh

  • Đánh giá hiệu suất mô hình bằng các chỉ số đánh giá
  • Xử lý hiện tượng quá khớp (overfitting) và thiếu khớp (underfitting)
  • Tối ưu hóa tốc độ suy luận và hiệu quả mô hình

Triển khai Mô hình DeepSeek Tinh chỉnh

  • Đóng gói mô hình để triển khai API
  • Tích hợp mô hình tinh chỉnh vào ứng dụng
  • Mở rộng quy mô triển khai với điện toán đám mây và biên

Các Use Case Thực tế và Ứng dụng

  • LLM tinh chỉnh cho tài chính, y tế và hỗ trợ khách hàng
  • Các nghiên cứu điển hình về ứng dụng trong ngành
  • Các cân nhắc về đạo đức trong mô hình AI đặc thù theo lĩnh vực

Tóm tắt và Các Bước Tiếp Theo

Requirements

  • Kinh nghiệm với các khuôn khổ học máy và học sâu
  • Làm quen với transformers và các mô hình ngôn ngữ lớn (LLM)
  • Hiểu biết về các kỹ thuật tiền xử lý dữ liệu và huấn luyện mô hình

Đối tượng

  • Các nhà nghiên cứu AI khám phá việc tinh chỉnh LLM
  • Các kỹ sư học máy phát triển các mô hình AI tùy chỉnh
  • Các nhà phát triển nâng cao triển khai các giải pháp dựa trên AI
 21 Hours

Number of participants


Price per participant

Provisional Upcoming Courses (Require 5+ participants)

Related Categories