MARKOV in Ukrainian translation

марковський
markov
markowski
марковських
markov
markowski
марківські
markov
марковські
markov
markowski
марковським
markov
markowski
марковим
markov
марківського
markov

Examples of using Markov in English and their translations into Ukrainian

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Staff get along with markov?
Персонал ладил с Марковым?
In simpler Markov Model, the states are clearly visible to the user and thus the state
У простіших марковських моделях(таких як ланцюги Маркова) стан є безпосередньо видимим спостерігачеві,
ATB CEO Boris Markov believes that the departure of Ukrainians abroad is a serious threat not only for the Ukrainian economy, but for the country as a whole.
Генеральний директор АТБ Борис Марков вважає, що виїзд українців за кордон- це серйозна загроза не тільки для української економіки, але й в цілому для країни.
We obtain a differential analog of the main lemma in the theory of Markov branding processes$\mu(t),\quad t\geq 0$, of continuous time.
Отримано диференціальний аналог основної леми теорії марковських гіллястих процесів$\mu(t),\quad t \geq 0$, неперервного часу.
Markov processes As wind power continues to gain popularity, it becomes a necessary ingredient in realistic power grid studies.
Марківські процеси Із набуттям популярності вітровою енергетикою стає необхідним враховувати її у реалістичних дослідженнях енергосистем.
Markov, visiting Alupka,
Марков, відвідавши Алупку,
Later, the theory of Markov random fields was further developed in works related to problems of statistical physics
У подальшому теорія Марковських випадкових полів отримала свій розвиток у роботах, пов'язаних із задачами статистичної фізики
hidden Markov models, exploiting repetitions in the input sequence to greatly speed up the forward algorithm.
прихованих марковських моделей, що використовує повторення у вхідній послідовності для значного прискорення послідовного алгоритму.
In this context, the Markov property suggests that the distribution for this variable depends only on the distribution of previous state.
У цьому контексті, Марков передбачає, що розподіл цієї змінної залежить тільки від розподілу в попередній стан.
Therefore, gradual evolution from common ancestors must conform to the mathematics of Markov processes and Markov chains.
А значить, поступове еволюційне походження від спільного предка має відповідати таким моделям як марківські процеси і ланцюги Маркова.
Bachelier it is already possible to find an attempt to discuss Brownian motion as a Markov process, an attempt which received justification later in the research of N. Wiener(1923).
Башельє можна угледіти спробу трактувати броунівський рух як марковський процес, яка отримала обґрунтування після досліджень Вінера 1923 року.
Markov decision processes are an extension of Markov chains; the difference is the addition of actions(allowing choice)
Марковські процеси вирішування є розширенням марковських ланцюгів; різниця полягає в доданні дій(що дає вибір)
At the same time, Markov noted, in general, it can be stated that the positive dynamics of migration from Ukraine to the EU countries and Russia can be maintained.
Водночас Марков зазначив, що на загал можна констатувати збереження позитивної динаміки міграції з України до держав Євросоюзу та Росії.
Reinforcement learning can solve Markov decision processes without explicit specification of the transition probabilities;
Навчання з підкріпленням може розв'язувати марковські процеси вирішування без явного вказання ймовірностей переходів;
More formally the environment is modeled as a Markov decision process(MDP) with states s 1,….
Формальніше, середовище моделюють як марковський процес вирішування(МПВ) зі станами s 1,….
The new classes of Markov systems areinvestigated that do not necessarily continuously depend on time,
Досліджено нові класи марковських систем, які не обов'язково неперервно залежать від часу, але мають так звану
where his teachers were T. Neff and A. Markov.
де його викладачами були Т. Нефф і А. Марков.
Formally the environment is modeled as a Markov decision process(MDP)
Формальніше, середовище моделюють як марковський процес вирішування(МПВ)
However, it is also possible to create hidden Markov models with other types of prior distributions.
Однак, також можливо створити приховані марковські моделі з іншими типами апріорних розподілів.
this is called a Markov process.
отже, це називається марковським процесом.
Results: 303, Time: 0.046

Top dictionary queries

English - Ukrainian