Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Đề cương khóa học
Giới thiệu về Ollama để triển khai LLM
- Tổng quan về khả năng của Ollama
- Ưu điểm của việc triển khai mô hình AI cục bộ
- So sánh với các giải pháp lưu trữ AI dựa trên đám mây
Thiết lập môi trường triển khai
- Cài đặt Ollama và các phụ thuộc cần thiết
- Cấu hình phần cứng và tăng tốc GPU
- Dockerizing Ollama cho các triển khai có thể mở rộng
Triển khai LLM với Ollama
- Tải và quản lý các mô hình AI
- Triển khai Llama 3, DeepSeek, Mistral và các mô hình khác
- Tạo API và điểm cuối để truy cập mô hình AI
Tối ưu hóa hiệu suất LLM
- Tinh chỉnh các mô hình để đạt hiệu quả
- Giảm độ trễ và cải thiện thời gian phản hồi
- Quản lý bộ nhớ và phân bổ tài nguyên
Tích hợp Ollama vào quy trình làm việc AI
- Kết nối Ollama với các ứng dụng và dịch vụ
- Tự động hóa các quy trình do AI điều khiển
- Sử dụng Ollama trong môi trường điện toán biên
Giám sát và bảo trì
- Theo dõi hiệu suất và các vấn đề gỡ lỗi
- Cập nhật và quản lý các mô hình AI
- Đảm bảo an ninh và tuân thủ trong triển khai AI
Mở rộng triển khai mô hình AI
- Thực hành tốt nhất để xử lý khối lượng công việc lớn
- Mở rộng quy mô Ollama cho các trường hợp sử dụng doanh nghiệp
- Những tiến bộ trong tương lai trong việc triển khai mô hình AI cục bộ
Tóm tắt và các bước tiếp theo
Requirements
- Kinh nghiệm cơ bản với máy học và mô hình AI
- Sự quen thuộc với giao diện dòng lệnh và tập lệnh
- Hiểu biết về môi trường triển khai (cục bộ, biên, đám mây)
Khán giả
- Các kỹ sư AI tối ưu hóa việc triển khai AI cục bộ và trên nền tảng đám mây
- Các học viên ML triển khai và tinh chỉnh LLM
- DevOps chuyên gia quản lý tích hợp mô hình AI
14 Hours