Trong chương này, bạn sẽ học về các kỹ thuật tinh chỉnh mô hình ngôn ngữ theo sự ưu tiên của con người. Trong khi học có giám sát giúp mô hình học các tác vụ, tinh chỉnh theo sự ưu tiên khuyến khích đầu ra phù hợp với kỳ vọng và giá trị của con người.
Các phương pháp tinh chỉnh theo sự ưu tiên thường bao gồm 2 giai đoạn:
Các phương pháp thay thế như ORPO kết hợp cả tinh chỉnh theo chỉ thị và tinh chỉnh theo sự ưu tiên thành 1 giai đoạn tinh chỉnh duy nhất. Ở đây, chúng ta sẽ tập trung vào các thuật toán DPO và ORPO.
Nếu bạn muốn tìm hiểu thêm về các kỹ thuật tinh chỉnh khác, bạn có thể đọc thêm tại Argilla Blog.
Phương pháp này đơn giản hóa quá trình tinh chỉnh theo chỉ thị bằng cách tối ưu hóa trực tiếp mô hình sử dụng dữ liệu ưu tiên (preference data). Phương pháp này loại bỏ nhu cầu về các Mô hình thưởng phạt (Reward model) riêng biệt và Học tăng cường phức tạp, giúp quá trình ổn định và hiệu quả hơn so với Học tăng cường từ phản hồi của con người (RLHF) truyền thống. Để biết thêm chi tiết, bạn có thể tham khảo tài liệu tối ưu hóa ưu tiên trực tiếp (DPO).
ORPO giới thiệu một phương pháp kết hợp cả 2 giai đoạn tinh chỉnh theo chỉ thị và tinh chỉnh theo sự ưu tiên vào trong 1 giai đoạn tinh chỉnh duy nhất. Phương pháp này điều chỉnh mục tiêu tiêu chuẩn của mô hình ngôn ngữ bằng cách kết hợp negative log-likelihood loss với một tỷ lệ odds ở cấp độ token. Vì vậy, ORPO tạo ra 1 quá trình tinh chỉnh thống nhất với kiến trúc không cần mô hình thưởng phạt và cải thiện đáng kể hiệu quả tính toán. ORPO đã cho thấy kết quả ấn tượng trên nhiều benchmark, thể hiện hiệu suất tốt hơn trên AlpacaEval so với các phương pháp truyền thống. Để biết thêm chi tiết, bạn có thể tham khảo tài liệu tối ưu hóa ưu tiên theo tỷ lệ odds (ORPO).