Markov process

математический термин, статистический термин марковский процесс (разновидность дискретного или непрерывного случайного процесса; такой процесс называется марковским, если его можно полностью задать с помощью двух величин: вероятности P (x, t) того, что случайная величина х (t) в момент времени t = x, и вероятности того, что если величина x при t=t1 равна х 1, то при t=t2, она равна х 2)

Англо-русский словарь экономических терминов

Markov process

марковский процесс

Англо-русский политехнический словарь

Markov process

noun a stochastic process (as Brownian motion) that resembles a Markov chain except that the states are continuous; also Markov chain — called also Markoff process

Merriam-Webster's Collegiate Dictionary

Markov process

A process in which the sequence of events can be described by a Markov chain.

Free Online Dictionary of Computing