✨Quá trình quyết định Markov

Quá trình quyết định Markov

Quy trình quyết định Markov (MDP) cung cấp một nền tảng toán học cho việc mô hình hóa việc ra quyết định trong các tình huống mà kết quả là một phần ngẫu nhiên và một phần dưới sự điều khiển của một người ra quyết định. MDP rất hữu dụng cho việc học một loạt bài toán tối ưu hóa được giải quyết thông qua quy hoạch động và học tăng cường. MDP được biết đến sớm nhất là vào những năm 1950 (cf. Bellman 1957). Một cốt lõi của nghiên cứu về quá trình ra quyết định Markov là từ kết quả của cuốn sách của Ronald A. Howard xuất bản năm 1960, Quy hoạch động và quá trình Markov. Chúng được sử dụng trong rất nhiều các lĩnh vực khác nhau, bao gồm robot, điều khiển tự động,kinh tế, vàchế tạo.

Chính xác hơn, một quá trình quyết định Markov là một quá trình điều khiển ngẫu nhiên thời gian rời rạc. Tại mỗi bước thời gian, quá trình này trong một vài trạng thái s, và người ra quyết định có thể chọn bất kỳ hành động a nào có hiệu lực trong trạng thái s. Quá trình này đáp ứng tại bước thời gian tiếp theo bằng cách di chuyển ngẫu nhiên vào một trạng thái mới s', và đưa ra cho người ra quyết định một phần thưởng tương ứng R_a(s,s').

Xác suất mà quá trình di chuyển vào trạng thái mới của nó s' bị ảnh hưởng bởi hành động được chọn. Đặc biệt, nó được đưa ra bởi hàm chuyển tiếp trạng thái P_a(s,s'). Do đó, trạng thái kế tiếp s' phụ thuộc vào trạng thái hiện tại s và hành động của người ra quyết định a. Nhưng  s và a đã cho, lại độc lập có điều kiện với toàn bộ trạng thái và hành động trước đó; nói cách khác, các trạng thái chuyển tiếp của một quá trình MDP thỏa mãn thuộc tính Markov.

Quá trình quyết định Markov là một phần mở rộng của chuỗi Markov; khác biệt là ở sự bổ sung của các hành động (cho phép lựa chọn) và phần thưởng (cho động cơ). Ngược lại, nếu chỉ có một hành động tồn tại cho mỗi trạng thái và tất cả các phần thưởng là giống nhau (ví dụ: zero), một quá trình quyết định Markov làm giảm một chuỗi Markov.

Định nghĩa

right|thumb|400x400px|Ví dụ về một MDP đơn giản với ba trạng thái và hai hành động. Một quá trình quyết định Markov là một tập 5-dữ liệu (S,A,P\cdot(\cdot,\cdot),R\cdot(\cdot,\cdot),\gamma), trong đó

  • S là một tập hữu hạn các trạng thái,
  • A là một tập hữu hạn các hành động (ngoài ra, A_s là tập hữu hạn các hành động có sẵn từ trạng thái s),
  • P_a(s,s') = \Pr(s_{t+1}=s' \mid s_t = s, a_t=a) là xác suất mà hành động a trong trạng thái s tại thời gian t sẽ dấn đến trạng thái s' tại thời gian t+1,
  • R_a(s,s') là phần thưởng trực tiếp (hoặc phần thưởng trực tiếp mong đợi) nhận được sau khi chuyển tiếp sang trạng thái s' từ trạng thái s,
  • \gamma \in [0,1] là hệ số chiết khấu, sẽ đại diện cho sự khác biệt quan trọng giữa các phần thưởng tương lai và các phần thưởng hiện tại. (Ghi chú: Lý thuyết của quá trình quyết định Markov không nói rằng S hoặc A là hữu hạn, nhưng các thuật toán dưới đây giả định rằng chúng là hữu hạn.)

Bài toán

Bài toán cốt lõi của MDP đó là tìm một "nguyên tắc" cho người ra quyết định: một hàm \pi mà xác định hành động \pi(s) rằng người ra quyết định sẽ chọn khi trong trạng thái s. Ghi chú rằng khi một quá trình quyết định Markov được kết hợp với một nguyên tắc theo cách thức như vậy, điều này sẽ làm cho hành động cho mỗi trạng thái và sự kết hợp kết quả sẽ hành xử giống như một xích Markov.

Mục đích là để chọn ra một nguyên tắc \pi mà sẽ tối đa hóa vài hàm tích lũy của các phần thưởng ngẫu nhiên, điển hình là tổng khấu hao mong muốn qua một đường vô cực tiềm năng: : \sum^{\infty}{t=0} {\gamma^t R{a_t} (st, s{t+1})}    (trong đó ta chọn a_t = \pi(s_t)) trong đó \ \gamma \  là hệ số chiết khấu và thỏa mãn 0 \le\ \gamma\ < 1. (Ví dụ, \gamma = 1/(1+r)  khi tốc độ chiết khấu là r.) \gamma  thường gần với 1.

Do tính chất Markov, chính sách tối ưu cho bài toán cụ thể này thực sự có thể được viết như là một hàm của s, như giả định ở trên.

Các thuật toán

MDP có thể được giải bằng quy hoạch tuyến tính hoặc quy hoạch. Dưới đây chúng tôi xin trình bày cách tiếp cận thứ hai.

Giả sử chúng ta _đã biết _hàm chuyển tiếp trạng tháiP và hàm phần thưởng R, và chúng ta muốn tính khả năng mà cực đại hóa phần thưởng không mong muốn dự tính.

Họ tiêu chuẩn của các thuật toán để tính nguyên tắc tối ưu này yêu cầu lưu trữ 2 dãy (array) biểu diễn bởi trạng thái: giá trị V, chứa các giá trị thực, và nguyên tắc \pi chứa các hành động.  Cuối cùng của thuật toán này, \pi sẽ chứa lời giải/ đáp số và V(s) sẽ chứa tổng chiết khấu (discounted sum) của các phần thưởng kiếm được (trị trung bình) bằng cách theo cách giải này từ trạng thái s.

Thuật toán này có hai loại bước sau, được lặp đi lặp lại một số lần cho tất cả các trạng thái cho đến khi không có thay đổi nào diễn ra nữa. Chúng được định nghĩa một cách đệ quy như sau: : \pi(s):= \arg \maxa \left{ \sum{s'} P_a(s,s') \left(R_a(s,s') + \gamma V(s') \right) \right}

: V(s):= \sum{s'} P{\pi(s)} (s,s') \left(R_{\pi(s)} (s,s') + \gamma V(s') \right) Bậc của chúng phụ thuộc vào biến thể của thuật toán; Ai cũng có thể thực hiện cho tất cả các trạng thái cùng một lúc hoặc từng trạng thái một, và một số trạng thái được thực hiện thường xuyên hơn các trạng thái khác. Miễn là không có trạng thái nào bị loại trừ vĩnh viễn từ một trong các bước, thuật toán sẽ cuối cùng đi đến được lời giải đúng.

Các biến thể đáng chú ý

Phép lặp giá trị

Trong phép lặp giá trị (Bellman 1957), còn được gọi là quy nạp ngược, hàm \pi không được sử dụng, thay vào đó, giá trị của \pi(s) được tính toán trong V(s) bất kể khi nào cần thiết. Nghiên cứu của Shapley vào năm 1953 về stochastic games (trò chơi ngẫu nhiên) bao gồm một trường hợp đặc biệt, phương pháp phép lặp giá trị cho các quá trình quyết định Markov, nhưng công trình này chỉ được công nhận sau này.

Thay thế tính toán của \pi(s) vào tính toán của V(s) cho ta bước kết hợp: : V_{i+1}(s):= \maxa \left{ \sum{s'} P_a(s,s') \left(R_a(s,s') + \gamma V_i(s') \right) \right}, trong đó i là số lần lặp. Giá trị lặp bắt đầu tại i = 0V0 là một giả định của hàm giá trị. Sau đó tính toán lặp đi lặp lại V{i+1} cho tất cả các trạng thái s, cho đến khi V hội tụ với phía bên trái bằng phía bên phải (được gọi là "phương trình Bellman cho bài toán này).

Phép lặp nguyên tắc

Trong phép lặp nguyên tắc (Howard 1960) bước một được thực hiện một lần, sau đó bước 2 được lặp đi lặp lại cho đến khi nó hội tụ. Sau đó bước một được thực hiện lại một lần nữa và vv.

Thay vì lặp đi lặp lại bước hai cho đến khi hội tụ, nó có thể được xây dựng và giải như một tập hợp các phương trình tuyến tính.

Biến thể này có lợi thế là có một điều kiện dừng nhất định: khi dãy \pi không thay đổi trong quá trình áp dụng bước 1 cho tất cả các trạng thái, thuật toán sẽ được hoàn thành.

Phép lặp nguyên tắc sửa đổi

Trong phép lặp nguyên tắc sửa đổi (van Nunen, 1976; Puterman và Shin 1978), bước một được thực hiện một lần, và sau đó bước 2 được lặp đi lặp lại nhiều lần. Sau đó bước một được thực hiện một lần nữa và vân vân.

Quét ưu tiên

Trong biến thể này, các bước được áp dụng ưu tiên cho các trạng thái quan trọng theo một số cách thức nào đó -  hoặc là dựa trên thuật toán này (có các thay đổi lớn trong V hoặc \pi xung quanh các trạng thái này gần đây) hoặc là dựa trên việc sử dụng (các trạng thái đó nằm gần trạng thái khởi động, hoặc là tùy thuộc vào người hoặc chương tình sử dụng thuật toán này).

Mở rộng và tổng quá hóa

Quá trình quyết định Markov là một trò chơi ngẫu nhiên với người chơi duy nhất.

Có thể tuân theo từng phần

Lời giải ở trên giả thiết rằng trạng thái s đã biết khi hành động được thực hiện; nếu không thì \pi(s) không thể được tính toán. Khi giả thiết này không đúng, bài toán được gọi là một quá trình quyết định Markov có thể tuân theo từng phần hoặc POMDP.

Một cải tiến chính trong lĩnh vực này đã được thực hiện bởi Burnetas và Katehakis trong "Optimal adaptive policies for Markov decision processes" (các nguyên tắc thích nghi tối ưu cho các quá trình quyết định Markov). Trong công trình này một lớp các nguyên tắc thích nghi sở hữu các thuộc tính tốc độ hội tụ cực đại đều cho  tổng phần thưởng đường chân trời hữu hạn dự kiến, được xây dựng theo các giả định về các không gian trạng thái-hành động và sự tối giản của luật chuyển tiếp. Các nguyên tắc này quy định rằng sự lựa chọn của các hành động, tại mỗi trạng thái và khoảng thời gian, phải dựa vào các chỉ số là các lạm phát của bên phải của các phương trình tối ưu phần thưởng trung bình được ước lượng.

Học tăng cường

Nếu xác suất hoặc phần thưởng là chưa biết, bài toán là bài toán học tăng cường (Sutton và Barto, 1998).

Để thực hiện mục đích này, việc định nghĩa một hàm thúc đẩy là rất cần thiết, tương ứng với việc thực hiện hành động a và sau đó tiếp tục tối ưu hóa (hoặc theo bất kỳ nguyên tắc nào mà ta đang có): : \ Q(s,a) = \sum_{s'} P_a(s,s') (R_a(s,s') + \gamma V(s')).\ Trong khi hàm này cũng chưa biét, kinh nghiệm trong quá trình học sẽ được dựa trên các cặp (s, a) (cùng với kết quả s'); đó là, "Tôi đã ở trong trạng thái s và tôi cố gắng thực hiện as' xảy ra"). Vì vậy, ta có một dãy Q và sử dụng kinh nghiệm để cập nhật nó trực tiếp. Điều này còn được gọi là Q‑learning.

Học tăng cường có thể giải quyết các quá trình quyết định Markov mà không cần đặc điểm rõ ràng của các xác suất chuyển đổi;Các giá trị của các xác suất chuyển tiếp là cần thiết trong phép lặp giá trị và nguyên tắc.Trong tăng cường việc học, thay vì các đặc điểm rõ ràng của các xác suất chuyển tiếp, các xác suất chuyển tiếp được xử lý thông qua một trình mô phỏng thường khởi động lại nhiều lần từ một trạng thái ngẫu nhiên đầu tiên thống nhất. Học tăng cường cũng có thể được kết hợp với xấp xỉ hàm để giải các bài toán có số lượng trạng thái rất lớn.

Giải thích phân loại lý thuyết

Ngoại trừ các phần thưởng, một quá trình quyết định Markov (S,A,P) có thể được hiểu trong khuôn khổ của Lý thuyết Phân loại. Cụ thể. cho \mathcal{A} là ký hiệu của  free monoid với tập con A. Cho Dist là ký hiệu của Kleisli category của [http://ncatlab.org/nlab/show/Giry+monad Giry monad]. Thì một hàm tử \mathcal{A}\to\mathbf{Dist} mã hóa cả tập S của các trạng thái và cả hàm xác suất P.

Bằng cách này, các quá trình quyết định Markov có thể được tổng quát hóa từ các monoid (các phân loại với một đối tượng) với các thể loại tùy ý. Ta có thể gọi kết quả (\mathcal{C}, F:\mathcal{C}\to \mathbf{Dist} một quyết định Markov phụ thuộc-ngữ cảnh, bởi vì di chuyển từ một đối tượng sang một đối tượng khác trong \mathcal{C} thay đổi tập các hành động khả dụng và tập các trạng thái có khả năng xảy ra.

Quá trình quyết định Markov thời gian liên tục

Trong các Quá trình Quyết định thời gian rời rạc Markov, cá quyết định được thực hiện tại các khoảng thời gian rời rạc. Tuy nhiên, đối với các Quá trình Quyết định Markov thời gian liên tục, các quyết định có thể được thực hiện tại bất kỳ thời gian nào mà người ra quyết định chọn. Khi so sánh với Quá trình Quyết định Markov thời gian Liên tục có thể mô hình hóa tốt hơn quá trình ra quyết định cho một hệ thống mà có động năng liên tục, có nghĩa là, các động năng của hệ thống được định nghĩa bởi các phương trình vi phân từng phần (PDE).

Định nghĩa

Để thảo luận về Quá trình Quyết định Markov thời gian liên tục, chúng tôi xin giới thiệu hai bộ ký hiệu:

Nếu không gian trạng thái và không gian hành động là hữu hạn,

  • \mathcal{S}: Không gian trạng thái;
  • \mathcal{A}: Không gian hành động;
  • q(i|j,a): \mathcal{S}\times \mathcal{A} \rightarrow \triangle \mathcal{S}, hàm tốc độ chuyển tiếp;
  • R(i,a): \mathcal{S}\times \mathcal{A} \rightarrow \mathbb{R},hàm phần thưởng. Nếu không gian trạng thái và không gian hành động là liên tục,
  • \mathcal{X}: Không gian trạng thái.;
  • \mathcal{U}: Không gian kiểm soát tốt;
  • f(x,u): \mathcal{X}\times \mathcal{U} \rightarrow \triangle \mathcal{X}, hàm tốc độ chuyển tiếp;
  • r(x,u): \mathcal{X}\times \mathcal{U} \rightarrow \mathbb{R}, hàm tốc độ phần thưởng kiểu nhưr(x(t),u(t))dt=dR(x(t),u(t)), trong đó  R(x,u) là hàm phần thưởng mà ta đã thảo luận trong trường hợp ở trên.

Bài toán

Giống như các Quá trình Quyết định Markov thời gian Rời rạc, trong Quá trình Quyết định Markov thời gian Liên tục, ta muốn tìm _lời giải _hoặc _điều khiển _tối ưu có thể cho chúng ta phần thưởng tích hợp mong  muốn tối ưu: : \max \quad \mathbb{E}_u[\int_0^{\infty}\gamma^t r(x(t),u(t)))dt|x_0] Trong đó 0\leq\gamma< 1

Hình thành công thức quy hoạch tuyến tính

Nếu không gian trạng thái và không gian hành động là hữu hạn, chúng ta có thể sử dụng quy hoạch tuyến tính để tìm lời giải tối ưu, đây là một trong những hướng tiếp cận sớm nhất được áp dụng. Ở đây chúng ta chỉ xem xét mô hình ergodic, nghĩa là MDP thời gian liên tục trở thành một ergodic Xích Markov thời gian rời rạc dưới một lời giải tĩnh. Dưới giả thiết này, mặc dù người ra quyết định có thể ra một quyết định tại bất kỳ thời gian tại trạng thái hiện tại, anh ta không thể thu lợi nhiều bằng cách thực hiện nhiều hơn 1 hành động. Sẽ tốt hơn cho anh ta để thực hiện một hành động tại thời điểm khi hệ thống đang dịch chuyển từ trạng thái hiện tại sang một trạng thái khác. Dưới vài điều kiện, (xem chi tiết Kết quả 3.14 của [http://www.springer.com/mathematics/applications/book/978-3-642-02546-4 Quá trình Quyết định Markov thời gian Liên tục]), nếu hàm giá trị tối ưu  V^ của chúng ta là độc lập với trạng thái i, chúng ta sẽ có bất phương trình sau: : g\geq R(i,a)+\sum_{j\in S}q(j|i,a)h(j) \quad \forall i \in S \,\, and \,\, a\in A(i) Nếu tồn tại một hàm h, thì \bar V^ sẽ là  g nhỏ nhất thỏa mãn phương trình ở trên. Để tìm \bar V^*, chúng ta có thể sử dụng mô hình quy hoạch tuyến tính sau đây:

  • Quy hoạch tuyến tính nguyên thủy(P-LP) : \begin{align} \text{Minimize}\quad &g\ \text{s.t} \quad & g-\sum_{j \in S}q(j|i,a)h(j)\geq R(i,a)\,\, \forall i\in S,\,a\in A(i) \end{align}
  • Quy hoạch tuyến tính kép(D-LP) : \begin{align} \text{Maximize} &\sum{i\in S}\sum{a\in A(i)}R(i,a)y(i,a)\ \text{s.t.} &\sum{i\in S}\sum{a\in A(i)} q(j|i,a)y(i,a)=0 \quad \forall j\in S,\ & \sum{i\in S}\sum{a\in A(i)}y(i,a)=1,\ & y(i,a)\geq 0 \qquad \forall a\in A(i)\,\,and\,\, \forall i\in S \end{align} y(i,a) là một lời giải khả thi cho D-LP nếu y(i,a) là xa lạ và thỏa mãn các giới hạn trong bài toán D-LP. Một lời giải khả thi y^*(i,a) cho D-LP được cho là một lời giải tối ưu nếu : \begin{align} \sum_{i\in S}\sum_{a\in A(i)}R(i,a)y^*(i,a) \geq \sum_{i\in S}\sum_{a\in A(i)}R(i,a)y(i,a) \end{align} đối với tất cả các lời giải khả thi y(i,a) đối với D-LP. Khi chúng ta tìm thấy lời giải tối ưu y^*(i,a), chúng ta có thể sử dụng lời giải tối ưu này để thiết lập các giải pháp tối ưu.

Phương trình Hamilton-Jacobi-Bellman

Trong MDP thời gian liên tục, nếu không gian trạng thái và không gian hành động là liên tục, tiêu chuẩn tối ưu có thể được tìm thấy bằng cách giải phương trình đạo hàm riêng Hamilton-Jacobi-Bellman (HJB). Để thảo luận về phương trình HJB, chúng ta cần để viết lại bài toán của chúng ta như sau : \begin{align} V(x(0),0)=&\text{max}_u\int_0^T r(x(t),u(t))dt+D[x(T)]\ s.t.\quad & \frac{dx(t)}{dt}=f[t,x(t),u(t)] \end{align}

D(\cdot) là hàm phần thưởng cuối, x(t) là vector trạng thái hệ thống, u(t) là vector điều khiển hệ thống, ta sẽ phải đi tìm. f(\cdot) chỉ cách thức vector trạng thái thay đổi theo thời gian. Phương trình Hamilton-Jacobi-Bellman có dạng như sau: : 0=\text{max}_u (r(t,x,u) +\frac{\partial V(t,x)}{\partial x}f(t,x,u)) Chúng ta có thể giải phương trình trên để tìm điều khiển tối ưu u(t), sẽ cho chúng ta giá trị tối ưu V^*

Ứng dụng

Quá trình quyết định Markov thời gian liên tục được ứng dụng trong các hệ thống xếp hàng, các quá trình dịch bệnh và các quá trình dân số.

Ký hiệu thay thế

The terminology and notation for MDPs are not entirely settled. There are two main streams — one focuses on maximization problems from contexts like economics, using the terms action, reward, value, and calling the discount factor \beta or \gamma, while the other focuses on minimization problems from engineering and navigation, using the terms control, cost, cost-to-go, and calling the discount factor \alpha. In addition, the notation for the transition probability varies.

Ngoài ra, xác suất chuyển tiếp đôi khi được viết dưới dạng Pr(s,a,s'), Pr(s'|s,a) hoặc, hiếm hoi hơn, p_{s's}(a).

Quá trình quyết định Markov Hạn chế

Quá trình Quyết định Markov Hạn chế (CMDP) là phần mở rộng của Quá trình Quyết định Markov (MDP). Có ba khác biệt cơ bản giữa MDP và CMDP.

  • Có rất nhiều chi phí phát sinh sau khi áp dụng một hành động thay vì một.
  • CMDP chỉ được giải duy nhất bằng Quy hoạch tuyến tính, và không thể áp dụng Quy hoạch động ở đây.
  • Điểm cuối cùng là sự phụ thuộc của trạng thái bắt đầu. Có rất nhiều ứng dụng của CMDP. Gần đây nó đang được sử dụng trong các kịch bản lập kế hoạch chuyển động trong robotic. 
👁️ 1 | 🔗 | 💖 | ✨ | 🌍 | ⌚
**Quy trình quyết định Markov** **(MDP)** cung cấp một nền tảng toán học cho việc mô hình hóa việc ra quyết định trong các tình huống mà kết quả là một phần ngẫu nhiên và
Trong ngành khoa học máy tính, **học tăng cường** (tiếng Anh: _reinforcement learning_) là một lĩnh vực con của học máy, nghiên cứu cách thức một _agent_ trong một _môi trường_ nên chọn thực hiện
**Trí tuệ nhân tạo** (**TTNT**) (tiếng Anh: **_Artificial intelligence_**, viết tắt: **_AI_**) là khả năng của các hệ thống máy tính thực hiện các nhiệm vụ liên quan đến trí thông minh của con người,
**Mô hình Markov ẩn** (tiếng Anh là _Hidden Markov Model_ - **HMM**) là mô hình thống kê trong đó hệ thống được mô hình hóa được cho là một quá trình Markov với các tham
**_Q_ -learning** là một thuật toán học tăng cường không mô hình. Mục tiêu của Q-learning là học một chính sách, chính sách cho biết máy sẽ thực hiện hành động nào trong hoàn cảnh
Trong tài chính, **định giá** là quá trình ước tính giá trị mà một cái gì đó có. Các thứ thường được định giá là các tài sản hoặc trách nhiệm tài chính. Định giá
Trong học tăng cường (RL), một thuật toán không mô hình (trái ngược với một thuật toán dựa trên mô hình) là một thuật toán mà không sử dụng các _phân bố xác suất chuyển
Trong di truyền học quần thể, **cố định gen** là hiện tượng trong đó một alen của một gen lấn át tất cả alen khác và đạt tần số 100%. Nói cách khác, đó là
**Tin sinh học** (_bioinformatics_) là một lĩnh vực khoa học sử dụng các công nghệ của các ngành toán học ứng dụng, tin học, thống kê, khoa học máy tính, trí tuệ nhân tạo, hóa
**Hristo Stoichkov** (tiếng Bulgaria: Христо Стоичков, sinh 8 tháng 2 năm 1966 tại Plovdiv) là một cựu cầu thủ bóng đá người Bulgaria. Ông là chủ nhân Quả Bóng Vàng năm 1994. ## Sự nghiệp
**Trên từng cây số** (tiếng Bulgaria: _На всеки километър_, _Na vseki kilometar_, tiếng Nga: _На каждом километре_) là một bộ phim truyền hình Bulgari, kể về cuộc chiến của nhân dân Bulgari trong Chiến tranh
**Ủy ban An ninh Quốc gia** (, ), viết tắt **KGB** (, ; ) còn được gọi là **Ủy ban An ninh Nhà nước**, là lực lượng cảnh sát mật chính, và là cơ quan
phải|Mỗi phần tử của một ma trận thường được ký hiệu bằng một biến với hai chỉ số ở dưới. Ví dụ, a2,1 biểu diễn phần tử ở hàng thứ hai và cột thứ nhất
thumb|alt=Một biểu đồ minh họa về ví dụ của máy Boltzmann.|Biểu đồ minh họa về một ví dụ của máy Boltzmann. Mỗi cạnh không có hướng đại diện cho sự phụ thuộc. Trong ví dụ
**Trường điều kiện ngẫu nhiên (CRFs)** là một dạng của Mô hình xác suất thường được áp dụng cho Dự đoán cấu trúc trong Nhận diện mẫu và Học máy. Một mô hình phân lớp
**Học máy** hay **máy học** (_machine learning_) là một lĩnh vực của trí tuệ nhân tạo liên quan đến việc nghiên cứu và xây dựng các kĩ thuật cho phép các hệ thống "học" tự
nhỏ|Tổng hợp giọng nói Trên máy tính, **tổng hợp giọng nói** là việc tạo ra giọng nói của người từ đầu vào là văn bản hay các mã hóa việc phát âm. Hệ thống này
**Mạng Bayes** (tiếng Anh: _Bayesian network_ hoặc _Bayesian belief network_ hoặc _belief network_) là một mô hình xác suất dạng đồ thị. Mạng Bayes là cách biểu diễn đồ thị của sự phụ thuộc thống
**Học sâu** (tiếng Anh: **deep learning**, còn gọi là **học cấu trúc sâu**) là một phần trong một nhánh rộng hơn các phương pháp học máy dựa trên mạng thần kinh nhân tạo kết hợp
nhỏ|300x300px|Mạng lưới điện **Mạng lưới điện thông minh** là mạng lưới được hiện đại hóa để sử dụng hoặc áp dụng kỹ thuật số thông tin và công nghệ truyền thông để thu thập thông
**Aleksandr Mikhailovich Lyapunov** (; 6 tháng 6 (cũ 25 tháng 5) năm 1857 – 3 tháng 11 năm 1918) là một nhà toán học, cơ học và vật lý người Nga. Họ của ông đôi
**Quản trị vận hành** là một lĩnh vực quản lý liên quan đến việc thiết kế và kiểm soát quá trình sản xuất và thiết kế lại hoạt động kinh doanh trong sản xuất hàng
nhỏ|Nếu người bán hàng xuất phát từ điểm A, và nếu khoảng cách giữa hai điểm bất kì được biết thì đâu là đường đi ngắn nhất mà người bán hàng có thể thực hiện
[[Siêu máy tính song song hàng loạt Blue Gene/P của IBM]] **Tính toán song song** (tiếng Anh: _Parallel computing_), là một hình thức tính toán trong đó nhiều phép tính và tiến trình được thực
Bài viết này là **danh sách các thuật toán** cùng một mô tả ngắn cho mỗi thuật toán. ## Thuật toán tổ hợp ### Thuật toán tổ hợp tổng quát * Thuật toán Brent: tìm
**Mikhail Alexandrovich Ulyanov** (; 20 tháng 11 năm 1927 – 26 tháng 3 năm 2007) là diễn viên, đạo diễn, giảng viên nghệ thuật, nhân vật công chúng Liên Xô và Nga. Ông được tặng
**Hệ thống giao dịch tự động** (**ATS**) là một hình thức của giao dịch thuật toán, sử dụng phần mềm máy tính để tạo và gửi các lệnh mua bán trực tiếp đến thị trường
**Tatar** (; , ; phiên âm cũ: **Tác-ta** hay **Thát Đát**) là tên gọi chung các bộ lạc hỗn hợp Đột Quyết, Mông Cổ và Thanh Tạng sống rải rác ở miền thảo nguyên Bắc-Trung
**Sukhoi Su-27** (; tên ký hiệu của NATO: **Flanker**) là một máy bay tiêm kích phản lực độc đáo của Liên Xô được thiết kế bởi Phòng thiết kế Sukhoi (SDB) và được sản xuất
**Trận Smolensk** là một trận đánh lớn trong Chiến tranh Xô-Đức thuộc khuôn khổ chiến dịch Barbarossa năm 1941. Đây là một tổ hợp các trận đánh phòng thủ kết hợp với các hoạt động
**Nguyễn Văn Hiệu** (sinh ngày 21 tháng 7 năm 1938 – mất ngày 23 tháng 1 năm 2022) là giáo sư, nhà vật lý, và chính trị gia của Việt Nam. Ông là ủy viên
**"Phù thủy đêm"** (; , ) là biệt danh mà các binh sĩ Đức Quốc Xã đặt cho các nữ phi công quân sự của **Trung đoàn không quân ném bom đêm 588** (**'), sau
**Phong Trào Bạch Vệ** (tiếng Nga: Бѣлое движение, _chuyển tự_: Bѣloye dvizheniye) là một trong những lực lượng chính trong Nội chiến Nga từ năm 1917 - 1922. Là lực lượng gồm cả chính trị
## Học có giám sát * AODE * Mạng nơ-ron nhân tạo ** Truyền ngược ** Autoencoders ** Hopfield networks ** Máy Boltzmann ** Máy Boltzmann hạn chế ** Spiking neural networks * Thống kê
Đây là **danh sách các nhà toán học người Do Thái**, bao gồm các nhà toán học và các nhà thống kê học, những người đang hoặc đã từng là người Do Thái hoặc có
**Phân loại bằng thống kê** là một thủ tục thống kê trong đó các thể riêng biệt sẽ được sắp vào từng nhóm dựa trên số lượng thông tin về một hay nhiều tính chất
**Jacob David Tamarkin** (, _Yakov Davidovich Tamarkin_; sinh ngày 11 tháng 7 năm 1888 - mất ngày 18 tháng 11 năm 1945) là một nhà toán học người Mỹ gốc Nga được biết đến với
**Johann Carl Friedrich Gauß** (; ; ; 30 tháng 4 năm 1777 – 23 tháng 2 năm 1855) là một nhà toán học và nhà khoa học người Đức tài năng, người đã có nhiều
**Mạng thần kinh hồi quy** (hay còn gọi là **mạng thần kinh/nơ-ron tái phát**, **mạng thần kinh tái phát**, tiếng Anh: **recurrent neural network**, viết tắt **RNN**) là một lớp của mạng thần kinh nhân
thumb|Hệ thống giám sát Thụy Sĩ-Châu Âu: nhận dạng khuôn mặt và xe cộ, mẫu mã, màu sắc và biển số xe. Sử dụng tại Đức và Thụy Sĩ để giám sát và ghi lại
**Dịch máy thống kê** (**SMT**) là một phương pháp dịch máy, trong đó các bản dịch được tạo ra trên cơ sở các mô hình thống kê có các tham số được bắt nguồn từ
Hình minh họa Kết quả của việc khớp một tập hợp các điểm dữ liệu với hàm bậc hai Trong toán học, **phương pháp bình phương tối thiểu (Ordinary least square)**, còn gọi là **bình