Mục lục:
Định nghĩa - Markov Chain có nghĩa là gì?
Chuỗi Markov là một quá trình toán học chuyển từ trạng thái này sang trạng thái khác trong một số hữu hạn các trạng thái có thể. Nó là một tập hợp các trạng thái và xác suất khác nhau của một biến, trong đó điều kiện hoặc trạng thái trong tương lai của nó phụ thuộc đáng kể vào trạng thái trước đó của nó.
Chuỗi Markov còn được gọi là chuỗi Markov thời gian rời rạc (DTMC) hoặc quy trình Markov.
Techopedia giải thích Chuỗi Markov
Chuỗi Markov chủ yếu được sử dụng để dự đoán trạng thái tương lai của một biến hoặc bất kỳ đối tượng nào dựa trên trạng thái trong quá khứ của nó. Nó áp dụng các phương pháp xác suất trong việc dự đoán trạng thái tiếp theo. Chuỗi Markov được thể hiện bằng cách sử dụng biểu đồ có hướng, xác định trạng thái hiện tại và quá khứ và xác suất chuyển từ trạng thái này sang trạng thái khác.
Chuỗi Markov có một số triển khai trong công nghệ điện toán và Internet. Ví dụ: công thức PageRank (r) được sử dụng bởi tìm kiếm của Google sử dụng chuỗi Markov để tính toán PageRank của một trang Web cụ thể. Nó cũng được sử dụng để dự đoán hành vi của người dùng trên một trang web dựa trên các tùy chọn hoặc tương tác trước đây của người dùng với nó.