Đề cương khóa học

Giới thiệu về Ollama để triển khai LLM

  • Tổng quan về khả năng của Ollama
  • Ưu điểm của việc triển khai mô hình AI cục bộ
  • So sánh với các giải pháp lưu trữ AI dựa trên đám mây

Thiết lập môi trường triển khai

  • Cài đặt Ollama và các phụ thuộc cần thiết
  • Cấu hình phần cứng và tăng tốc GPU
  • Dockerizing Ollama cho các triển khai có thể mở rộng

Triển khai LLM với Ollama

  • Tải và quản lý các mô hình AI
  • Triển khai Llama 3, DeepSeek, Mistral và các mô hình khác
  • Tạo API và điểm cuối để truy cập mô hình AI

Tối ưu hóa hiệu suất LLM

  • Tinh chỉnh các mô hình để đạt hiệu quả
  • Giảm độ trễ và cải thiện thời gian phản hồi
  • Quản lý bộ nhớ và phân bổ tài nguyên

Tích hợp Ollama vào quy trình làm việc AI

  • Kết nối Ollama với các ứng dụng và dịch vụ
  • Tự động hóa các quy trình do AI điều khiển
  • Sử dụng Ollama trong môi trường điện toán biên

Giám sát và bảo trì

  • Theo dõi hiệu suất và các vấn đề gỡ lỗi
  • Cập nhật và quản lý các mô hình AI
  • Đảm bảo an ninh và tuân thủ trong triển khai AI

Mở rộng triển khai mô hình AI

  • Thực hành tốt nhất để xử lý khối lượng công việc lớn
  • Mở rộng quy mô Ollama cho các trường hợp sử dụng doanh nghiệp
  • Những tiến bộ trong tương lai trong việc triển khai mô hình AI cục bộ

Tóm tắt và các bước tiếp theo

Requirements

  • Kinh nghiệm cơ bản với máy học và mô hình AI
  • Sự quen thuộc với giao diện dòng lệnh và tập lệnh
  • Hiểu biết về môi trường triển khai (cục bộ, biên, đám mây)

Khán giả

  • Các kỹ sư AI tối ưu hóa việc triển khai AI cục bộ và trên nền tảng đám mây
  • Các học viên ML triển khai và tinh chỉnh LLM
  • DevOps chuyên gia quản lý tích hợp mô hình AI
 14 Hours

Number of participants


Price per participant

Provisional Upcoming Courses (Require 5+ participants)

Related Categories