[go: up one dir, main page]

Bước tới nội dung

Q-learning (học tăng cường)

Bách khoa toàn thư mở Wikipedia

Q -learning là một thuật toán học tăng cường không mô hình. Mục tiêu của Q-learning là học một chính sách, chính sách cho biết máy sẽ thực hiện hành động nào trong hoàn cảnh nào. Nó không yêu cầu một mô hình (do đó hàm ý "không mô hình") của môi trường và nó có thể xử lý các vấn đề với chuyển đổi và phần thưởng ngẫu nhiên, mà không cần điều chỉnh."

Đối với bất kỳ quá trình quyết định Markov hữu hạn (QTQDMKHH) nào, Q -learning tìm một chính sách tối ưu theo nghĩa là nó tối đa hóa giá trị mong đợi của tổng số phần thưởng trên bất kỳ và tất cả các bước tiếp theo, bắt đầu từ trạng thái hiện tại.[1] Q -learning có thể xác định một chính sách lựa chọn hành động tối ưu cho bất kỳ QTQDMKHH cụ thể nào, với thời gian thăm dò vô hạn và chính sách một phần ngẫu nhiên.[1] "Q" đặt tên theo tên hàm phần thưởng trả về, được sử dụng để cải thiện hoạt động và có thể nói là đại diện cho "chất lượng" của một hành động được thực hiện trong một trạng thái nhất định.[2]

Học tăng cường

[sửa | sửa mã nguồn]

Học tăng cường liên quan đến một tác nhân, một tập hợp các trạng thái và một bộ các hành động trên mỗi trạng thái. Bằng cách thực hiện một hành động , các tác nhân chuyển từ trạng thái này sang trạng thái khác. Thực hiện một hành động trong một trạng thái cụ thể cung cấp cho tác nhân một phần thưởng (một số điểm). Mục tiêu của tác nhân là tối đa hóa phần thưởng (trong tương lai) của nó. Nó thực hiện điều này bằng cách thêm phần thưởng tối đa có thể đạt được trong tương lai vào phần thưởng để đạt được trạng thái hiện tại, do đó hiệu quả hoạt động của hành động hiện tại được đánh giá bằng phần thưởng tiềm năng trong tương lai. Phần thưởng tiềm năng này là tổng của các giá trị dự kiến của phần thưởng của tất cả các bước trong tương lai bắt đầu từ trạng thái hiện tại.Ví dụ, hãy xem xét quá trình lên tàu, trong đó phần thưởng được đo bằng mức âm của tổng thời gian lên tàu (nói cách khác, chi phí lên tàu bằng thời gian lên tàu). Một chiến lược là vào tàu ngay khi cửa mở, giảm thiểu thời gian chờ đợi ban đầu cho chính bạn. Tuy nhiên, nếu tàu đông đúc, thì bạn sẽ vào chậm hơn, sau hành động đầu tiên là bước vào cửa thì mọi người sẽ đẩy bạn ra để rời tàu khi bạn cố gắng lên tàu. Tổng thời gian lên tàu, hoặc chi phí là:

  • Thời gian chờ 0 giây + thời gian chiến đấu 15 giây

Vào ngày hôm sau, do tình cờ ngẫu nhiên (thử nghiệm), bạn quyết định chờ đợi và để người khác xuống tàu trước. Điều này ban đầu dẫn đến thời gian chờ đợi lâu hơn. Tuy nhiên, thời gian chiến đấu với các hành khách khác là ít hơn. Nhìn chung, con đường này có phần thưởng cao hơn so với ngày hôm trước, vì tổng thời gian lên máy bay là:

  • Thời gian chờ 5 giây + thời gian chiến đấu 0 giây.

Thông qua thăm dò, mặc dù hành động ban đầu (chờ đợi) dẫn đến chi phí (hoặc phần thưởng âm) lớn hơn so với chiến lược lao vào tàu, chi phí chung là thấp hơn, do đó là một chiến lược bổ ích hơn.

Theo lý thuyết, việc lựa chọn hành động tiếp theo là ngẫu nhiên, nhưng trên thực tế, để đẩy nhanh tốc độ hội tụ, giải pháp tham lam được áp dụng, hành động có phần thưởng tiềm năng cao hơn sẽ được chọn và có 1 tỉ lệ ngẫu nhiên chọn các hành động khác.

Thuật toán

[sửa | sửa mã nguồn]
Bảng Q-Learning về các trạng thái được khởi tạo thành 0, sau đó mỗi ô được cập nhật thông qua đào tạo.

Chi phí cho một bước từ một trạng thái đến bước trong tương lai được tính là .Trong đó là hệ số chiết khấu, một số từ 0 đến 1() và có tác dụng định giá phần thưởng nhận được sớm hơn so với phần thưởng nhận được sau này (phản ánh giá trị của "khởi đầu tốt"). cũng có thể được hiểu là xác suất thành công (hoặc tồn tại) ở mọi bước . Do đó, thuật toán có hàm tính toán chất lượng của sự kết hợp hành động trạng thái:

.
Trước khi bắt đầu học, được khởi tạo là một giá trị cố định tùy ý (được chọn bởi người lập trình). Sau đó, tại mỗi thời điểm tác nhân chọn một hành động , quan sát một phần thưởng , bước vào một trạng thái mới (điều đó có thể phụ thuộc vào cả trạng thái trước đó và hành động đã chọn) và được cập nhật. Cốt lõi của thuật toán là một cập nhật lặp lại giá trị đơn giản, sử dụng trung bình trọng số của giá trị cũ và thông tin mới:
Với là phần thưởng nhận được khi chuyển từ trạng thái sang trạng thái là tỷ lệ học ().

Một tập của thuật toán kết thúc khi trạng thái trạng thái cuối cùng hoặc trạng thái kết thúc. Tuy nhiên, Q -learning cũng có thể học trong các nhiệm vụ không có tình tiết. [cần dẫn nguồn] Nếu hệ số chiết khấu thấp hơn 1, các giá trị hành động là hữu hạn ngay cả khi sự cố có thể chứa các vòng lặp vô hạn.Đối với tất cả các trạng thái cuối cùng không bao giờ được cập nhật, nhưng được đặt thành giá trị phần thưởng cho trạng thái . Trong hầu hết các trường hợp, có thể được đặt bằng không.

Ảnh hưởng của các biến

[sửa | sửa mã nguồn]

Tỷ lệ học

[sửa | sửa mã nguồn]

Tỷ lệ học hoặc kích thước bước xác định mức độ thông tin mới thu được sẽ ghi đè thông tin cũ. Hệ số 0 làm cho tác nhân không học được gì (chỉ khai thác kiến thức trước), trong khi hệ số 1 khiến tác nhân chỉ xem xét thông tin gần đây nhất (bỏ qua kiến thức trước để khám phá các khả năng). Trong môi trường hoàn toàn xác định, tỷ lệ học tập của là tối ưu. Khi vấn đề là ngẫu nhiên, thuật toán hội tụ trong một số điều kiện kỹ thuật về tốc độ học tập yêu cầu nó giảm xuống không. Trong thực tế, thường sử dụng một tỷ lệ học tập liên tục, chẳng hạn như cho tất cả .[3]

Hệ số chiết khấu

[sửa | sửa mã nguồn]

Hệ số chiết khấu xác định tầm quan trọng của phần thưởng trong tương lai. Hệ số 0 sẽ khiến tác nhân "cận thị" (hay thiển cận) bằng cách chỉ xem xét các phần thưởng hiện tại, tức là (trong quy tắc cập nhật ở trên), trong khi một yếu tố tiếp cận 1 sẽ khiến nó phấn đấu để nhận phần thưởng cao dài hạn. Nếu hệ số chiết khấu bằng hoặc vượt quá 1, các giá trị hành động có thể phân kỳ. Dành cho , không có trạng thái cuối, hoặc nếu tác nhân không bao giờ đạt tới một, tất cả lịch sử môi trường trở nên dài vô tận và các tiện ích với phần thưởng phụ gia, không được tiết lộ thường trở thành vô hạn.[4] Ngay cả với hệ số chiết khấu chỉ thấp hơn một chút, việc học theo chức năng Q dẫn đến việc lan truyền các lỗi và sự không ổn định khi hàm giá trị được xấp xỉ với mạng nơ ron nhân tạo.[5] Trong trường hợp đó, bắt đầu với hệ số chiết khấu thấp hơn và tăng nó theo giá trị cuối cùng sẽ đẩy nhanh quá trình học tập.[6]

Điều kiện ban đầu (Q0)

[sửa | sửa mã nguồn]

Q -learning là một thuật toán lặp, nó mặc nhiên thừa nhận một điều kiện ban đầu trước khi cập nhật đầu tiên xảy ra. Giá trị ban đầu cao, còn được gọi là "điều kiện ban đầu lạc quan",[7] có thể khuyến khích thăm dò: bất kể hành động nào được chọn, quy tắc cập nhật sẽ khiến nó có giá trị thấp hơn so với phương án khác, do đó tăng xác suất lựa chọn của chúng. Phần thưởng đầu tiên có thể được sử dụng để thiết lập lại các điều kiện ban đầu.[8] Theo ý tưởng này, lần đầu tiên một hành động được thực hiện phần thưởng được sử dụng để đặt giá trị của . Điều này cho phép học ngay lập tức trong trường hợp phần thưởng xác định cố định. Một mô hình kết hợp thiết lập lại các điều kiện ban đầu (RIC) dự kiến sẽ dự đoán hành vi của người tham gia tốt hơn một mô hình giả định bất kỳ điều kiện ban đầu tùy ý (AIC).[8] RIC dường như phù hợp với hành vi của con người trong các thí nghiệm lựa chọn nhị phân lặp đi lặp lại.[8]

Thực hiện

[sửa | sửa mã nguồn]

Q -learning tại đơn giản nhất lưu trữ dữ liệu trong bảng. Cách tiếp cận này chùn bước với số lượng trạng thái / hành động ngày càng tăng.

Xấp xỉ hàm

[sửa | sửa mã nguồn]

Q -learning có thể được kết hợp với xấp xỉ hàm.[9] Điều này cho phép áp dụng thuật toán cho các vấn đề lớn hơn, ngay cả khi không gian trạng thái liên tục.

Một giải pháp là sử dụng một mạng nơ ron nhân tạo (thích nghi) như một hàm xấp xỉ hàm.[10] Xấp xỉ hàm có thể tăng tốc độ học tập trong các vấn đề hữu hạn, do thực tế là thuật toán có thể khái quát hóa các kinh nghiệm trước đó cho các trạng thái chưa từng thấy trước đây.

Lượng tử hóa

[sửa | sửa mã nguồn]

Một kỹ thuật khác để giảm không gian trạng thái / hành động định lượng các giá trị có thể. Hãy xem xét ví dụ về việc học cách cân bằng một cây gậy trên ngón tay. Để mô tả trạng thái tại một thời điểm nhất định liên quan đến vị trí của ngón tay trong không gian, vận tốc của nó, góc của thanh và vận tốc góc của thanh. Điều này mang lại một vectơ bốn phần tử mô tả một trạng thái, tức là ảnh chụp nhanh của một trạng thái được mã hóa thành bốn giá trị. Vấn đề là vô số trạng thái có thể có mặt. Để thu hẹp không gian có thể của các hành động hợp lệ, nhiều giá trị có thể được gán cho một nhóm. Khoảng cách chính xác của ngón tay từ vị trí bắt đầu của nó (- vô cực đến + vô cực) không được biết, mà là nó có ở xa hay không (Gần, Xa).

Lịch sử

[sửa | sửa mã nguồn]

Q -learning được giới thiệu bởi Watkins [11] vào năm 1989. Một bằng chứng hội tụ đã được trình bày bởi Watkins và Dayan [12] vào năm 1992. Một bằng chứng toán học chi tiết hơn bởi Tsitsiklis [13] vào năm 1994, và bởi Bertsekas và Tsitsiklis trong cuốn sách Lập trình động học Neuro năm 1996 của họ.[14]

Watkins đã giải quyết vấn đề Học tập từ các phần thưởng bị trì hoãn, tiêu đề của Luận án tiến sĩ của ông. Tám năm trước đó vào năm 1981, cùng một vấn đề, dưới cái tên Căng thẳng học tăng cường học tập, đã được giải quyết bằng Mảng thích nghi Crossbar (CAA) của Bozinovski.[15][16] Ma trận bộ nhớ W =|| w(a,s)|| cũng giống như tám năm sau Q-bảng của Q-learning. Các kiến trúc đã giới thiệu thuật ngữ "đánh giá trạng thái" trong học tăng cường. Thuật toán học thanh ngang, được viết bằng mã giả toán học trong bài báo, trong mỗi lần lặp lại thực hiện các tính toán sau:

  • Trong trạng thái s hiện hành động a;
  • Nhận trạng thái hệ quả s';
  • Tính toán đánh giá trạng thái v(s');
  • Cập nhật giá trị thanh ngang w'(a,s) = w(a,s) + v(s').

Thuật ngữ "tăng cường thứ cấp", được sử dụng từ lý thuyết học tập động vật, để mô hình hóa các giá trị trạng thái thông qua backpropagation: giá trị trạng thái v(s') của tình huống hậu quả được đặt ngược lại cho các tình huống gặp phải trước đây. CAA tính toán các giá trị trạng thái theo chiều dọc và hành động theo chiều ngang ("thanh ngang"). Biểu đồ trình diễn cho thấy việc học tăng cường bị trì hoãn chứa các trạng thái (mong muốn, không mong muốn và trạng thái trung tính), được tính toán bởi hàm đánh giá trạng thái. Hệ thống học tập này là tiền thân của thuật toán Q-learning.[17]

Vào năm 2014, Google DeepMind đã cấp bằng sáng chế [18] một ứng dụng Q-learning để học sâu, có tiêu đề "học tăng cường sâu" hoặc "Q-learning sâu" có thể chơi các trò chơi Atari 2600 ở cấp độ chuyên gia.

Biến thể

[sửa | sửa mã nguồn]

Q-learning sâu

[sửa | sửa mã nguồn]

Hệ thống DeepMind đã sử dụng một mạng lưới thần kinh tích chập sâu, với các lớp bộ lọc tích chập để mô phỏng các hiệu ứng của các lĩnh vực tiếp nhận. Học tăng cường không ổn định hoặc phân kỳ khi xấp xỉ hàm phi tuyến như mạng nơ ron được sử dụng để biểu diễn Q. Sự không ổn định này xuất phát từ các tương quan có trong chuỗi các quan sát, thực tế là các cập nhật nhỏ cho Q có thể thay đổi đáng kể chính sách và dữ liệu phân phối và mối tương quan giữa Q và các giá trị đích.

Kỹ thuật sử dụng phát lại kinh nghiệm, một cơ chế lấy cảm hứng từ sinh học sử dụng một mẫu ngẫu nhiên các hành động trước thay vì hành động gần đây nhất để tiến hành.[2] Điều này loại bỏ các mối tương quan trong chuỗi quan sát và làm mịn các thay đổi trong phân phối dữ liệu. Cập nhật lặp điều chỉnh Q theo các giá trị đích chỉ được cập nhật định kỳ, giảm hơn nữa tương quan với mục tiêu.[19]

Q-learning đôi

[sửa | sửa mã nguồn]

Bởi vì giá trị hành động xấp xỉ tối đa trong tương lai trong Q-learning được đánh giá bằng cách sử dụng chức năng Q ở trong chính sách lựa chọn hành động hiện tại, trong môi trường nhiễu, Q-learning đôi khi có thể đánh giá quá cao các giá trị hành động, làm chậm quá trình học. Một biến thể được gọi là Double Q-learning đã được đề xuất để sửa lỗi này. Double Q-learning [20] là một thuật toán học lại tăng cường ngoài chính sách, trong đó một chính sách khác được sử dụng để đánh giá giá trị so với chính sách được sử dụng để chọn hành động tiếp theo.

Trong thực tế, hai hàm giá trị riêng biệt được đào tạo theo kiểu đối xứng lẫn nhau bằng cách sử dụng các trải nghiệm riêng biệt, . Bước cập nhật Q-learning đôi như sau:

Bây giờ giá trị ước tính của tương lai được đánh giá bằng cách sử dụng một chính sách khác, cái giải quyết vấn đề đánh giá quá cao.

Thuật toán này sau đó được kết hợp với học sâu, thành thuật toán DQN, dẫn đến Double DQN, vượt trội hơn thuật toán DQN ban đầu.[21]

Q-learning bị trì hoãn là một triển khai thay thế của thuật toán Q -learning trực tuyến, với việc học đúng xấp xỉ với xác suất cao (PAC).[22]

GQ tham lam là một biến thể của Q -learning để sử dụng kết hợp với xấp xỉ hàm (tuyến tính).[23] Ưu điểm của GQ tham lam là sự hội tụ được đảm bảo ngay cả khi sử dụng xấp xỉ hàm để ước tính các giá trị hành động.

Tham khảo

[sửa | sửa mã nguồn]
  1. ^ a b Melo, Francisco S. “Convergence of Q-learning: a simple proof” (PDF). Chú thích journal cần |journal= (trợ giúp)
  2. ^ a b Matiisen, Tambet (ngày 19 tháng 12 năm 2015). “Demystifying Deep Reinforcement Learning”. neuro.cs.ut.ee (bằng tiếng Anh). Computational Neuroscience Lab. Truy cập ngày 6 tháng 4 năm 2018.
  3. ^ Sutton, Richard; Barto, Andrew (1998). Reinforcement Learning: An Introduction. MIT Press.
  4. ^ Russell, Stuart J.; Norvig, Peter (2010). Artificial Intelligence: A Modern Approach . Prentice Hall. tr. 649. ISBN 978-0136042594.
  5. ^ Baird, Leemon (1995). “Residual algorithms: Reinforcement learning with function approximation” (PDF). ICML.
  6. ^ A bot will complete this citation soon. Click here to jump the queue. MISSING LINK. . 
  7. ^ Sutton, Richard S.; Barto, Andrew G. “2.7 Optimistic Initial Values”. Reinforcement Learning: An Introduction. Bản gốc lưu trữ ngày 8 tháng 9 năm 2013. Truy cập ngày 18 tháng 7 năm 2013.
  8. ^ a b c Shteingart, Hanan; Neiman, Tal; Loewenstein, Yonatan (tháng 5 năm 2013). “The role of first impression in operant learning” (PDF). Journal of Experimental Psychology: General (bằng tiếng Anh). 142 (2): 476–488. doi:10.1037/a0029550. ISSN 1939-2222. PMID 22924882. Bản gốc (PDF) lưu trữ ngày 26 tháng 1 năm 2021. Truy cập ngày 14 tháng 5 năm 2019.
  9. ^ Hasselt, Hado van (ngày 5 tháng 3 năm 2012). “Reinforcement Learning in Continuous State and Action Spaces”. Trong Wiering, Marco; Otterlo, Martijn van (biên tập). Reinforcement Learning: State-of-the-Art. Springer Science & Business Media. tr. 207–251. ISBN 978-3-642-27645-3.
  10. ^ Tesauro, Gerald (tháng 3 năm 1995). “Temporal Difference Learning and TD-Gammon”. Communications of the ACM. 38 (3): 58–68. doi:10.1145/203330.203343. Truy cập ngày 8 tháng 2 năm 2010.
  11. ^ Learning from Delayed Rewards, 1989
  12. ^ Watkins and Dayan, C.J.C.H., (1992), 'Q-learning.Machine Learning'
  13. ^ Tsitsiklis, J., (1994), 'Asynchronous Stochastic Approximation and Q-learning. Machine Learning'
  14. ^ Bertsekas and Tsitsiklis, (1996), 'Neuro-Dynamic Programming. Athena Scientific'
  15. ^ Bozinovski, S. (ngày 15 tháng 7 năm 1999). “Crossbar Adaptive Array: The first connectionist network that solved the delayed reinforcement learning problem”. Trong Dobnikar, Andrej; Steele, Nigel C.; Pearson, David W.; Albrecht, Rudolf F. (biên tập). Artificial Neural Nets and Genetic Algorithms: Proceedings of the International Conference in Portorož, Slovenia, 1999. Springer Science & Business Media. tr. 320–325. ISBN 978-3-211-83364-3.
  16. ^ Bozinovski, S. (1982). “A self learning system using secondary reinforcement”. Trong Trappl, Robert (biên tập). Cybernetics and Systems Research: Proceedings of the Sixth European Meeting on Cybernetics and Systems Research. North Holland. tr. 397–402. ISBN 978-0-444-86488-8.
  17. ^ Barto, A. (ngày 24 tháng 2 năm 1997). “Reinforcement learning”. Trong Omidvar, Omid; Elliott, David L. (biên tập). Neural Systems for Control. Elsevier. ISBN 978-0-08-053739-9.
  18. ^ “Methods and Apparatus for Reinforcement Learning, US Patent #20150100530A1” (PDF). US Patent Office. ngày 9 tháng 4 năm 2015. Truy cập ngày 28 tháng 7 năm 2018.
  19. ^ Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A.; Veness, Joel; Bellemare, Marc G.; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K. (tháng 2 năm 2015). “Human-level control through deep reinforcement learning”. Nature (bằng tiếng Anh). 518 (7540): 529–533. doi:10.1038/nature14236. ISSN 0028-0836. PMID 25719670.
  20. ^ van Hasselt, Hado (2011). “Double Q-learning” (PDF). Advances in Neural Information Processing Systems. 23: 2613–2622.
  21. ^ van Hasselt, Hado; Guez, Arthur; Silver, David (2015). “Deep reinforcement learning with double Q-learning”. AAAI Conference on Artificial Intelligence: 2094–2100. Bản gốc (PDF) lưu trữ ngày 6 tháng 2 năm 2020. Truy cập ngày 14 tháng 5 năm 2019.
  22. ^ Strehl, Alexander L.; Li, Lihong; Wiewiora, Eric; Langford, John; Littman, Michael L. (2006). “Pac model-free reinforcement learning” (PDF). Proc. 22nd ICML.
  23. ^ Maei, Hamid; Szepesvári, Csaba; Bhatnagar, Shalabh; Sutton, Richard (2010). “Toward off-policy learning control with function approximation in Proceedings of the 27th International Conference on Machine Learning” (PDF). Bản gốc (PDF) lưu trữ ngày 8 tháng 9 năm 2012. Truy cập ngày 14 tháng 5 năm 2019.

Liên kết ngoài

[sửa | sửa mã nguồn]