マルコフ - 英語 への翻訳

markov
マルコフ
markoff
マルコフ
markoff は
マーコフ

日本語 での マルコフ の使用例とその 英語 への翻訳

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
  • Programming category close
R>1に関するr次平均収束は、(マルコフの不等式により)確率収束を意味する。
Convergence in the r-th mean, for r≥ 1, implies convergence in probability(by Markov's inequality).
しかしながら、強力な計算機とマルコフ連鎖モンテカルロ法のような新たなアルゴリズムの出現によって、ベイズ的手法は21世紀に入り統計学内において利用の増加が見られてきている[2][3]。
However, with the advent of powerful computers and new algorithms like Markov chain Monte Carlo, Bayesian methods have seen increasing use within statistics in the 21st century.[1][5].
これにはマルコフ方程式がxk-1{\displaystylex_{k-1}}だけからxk{\displaystylex_{k}}を生成できるように記述できなければならない。
This requires that a Markov equation can be written(and computed) to generate a x k{\displaystyle x_{k}} based only upon x k- 1{\displaystyle x_{k-1}}.
オプションのトピックには、一般に、一般化線形モデル、マルコフ連鎖モンテカルロ、ブートストラップ、多変量解析、空間統計、時系列および予測、多値モデル、確率ファイナンス、さらに形状および画像解析が含まれます。
Optional topics typically include generalised linear models, Markov Chain Monte Carlo, the bootstrap, multivariate analysis, spatial statistics, time series and forecasting, multilevel models, stochastic finance, and shape and image analysis.
オプションのトピックには、一般に、一般化線形モデル、マルコフ連鎖モンテカルロ、ブートストラップ、多変量解析、空間統計、時系列および予測、多値モデル、確率ファイナンス、さらに形状および画像解析が含まれます。
Optional topics typically include generalised linear models, Markov Chain Monte Carlo, the bootstrap, multivariate analysis, spatial statistics, time series and forecasting, multilevel models, stochastic finance, together with shape and image analysis.
この手法はさまざまな分野で用いられているほぼすべてのマルコフ連鎖モンテカルロ法に応用可能であり、今後それらの分野で広く貢献していくと期待されています。
This method is applicable to almost all of the Markov chain Monte Carlo methods that are used in various fields, and it is expected to make wide-ranging contributions in the future.
これまでのマルコフ連鎖モンテカルロ法は、ほとんどの場合、「詳細つりあい」という条件を用いており、半世紀以上の間この条件の枠の中で発展を続けてきました。
Almost all of the Markov chain Monte Carlo methods up to now used a condition of" detailed balance," and for more than half a century the method continued to develop within the boundaries of this condition.
RTT系列の問題に戻ると、様々な「基本レベル」をモデル化すると、マルコフ連鎖の状態x(t)に対応します。
If we go back to our problem of a RTT series, modelling the different‘base levels' corresponds to the states x(t) of the Markov chain.
ちなみに、MCMC(マルコフ連鎖モンテカルロ法)とは、求める確率分布を均衡分布として持っており、マルコフ連鎖を作成することを基に確率分布のサンプリングを行うアルゴリズムのことである。
In statistics, Markov chain Monte Carlo(MCMC) methods are a class of algorithms for sampling from a probability distribution based on constructing a Markov chain that has the desired distribution of its equilibrium distribution.
特に、自己相似な分割アルゴリズムに基づくモデルの優れたルーティング特性や頑健性、マルコフ連鎖と差分方程式に関連した話題などを議論する。
In particular, we will show that the proposed model based on a self-similar tiling has superior properties for both efficient routing and robustness of connectivity, and that the growing process is related to a Markov chain and a difference equation in a theoretical viewpoint.
マルコフ連鎖を用いて劣化進行予測を行うため、これまでの劣化速度をもとに、今後の劣化進行予測が可能です。
Because deterioration progress is forecast by using a Markov chain, it is possible to predict the future progress of deterioration based on the deterioration rate up to the present time.
そしてこれは人間の発話機関がマルコフ連鎖や連続する語の単純統計といった統計モデルに基づくという見解への反例に用いられた。
This was used then as a counter-example to the idea that the human speech engine was based upon statistical models, such as a Markov chain, or simple statistics of words following others.
つ目の問題は、マルコフ連鎖の状態数が未知であることが多いことです(EMでは既知の定数であると考えられています)。
A second problem is that the number of states of the Markov chain is often unknown(whereas it is supposed to be a known constant in EM).
決定性の前提を排除して確率的なモデルによる不確実さを採用した場合、マルコフ決定過程(MDP)や部分観測マルコフ決定過程(POMDP)のためのポリシー生成という問題が生じる。
If the assumption of determinism is dropped and a probabilistic model of uncertainty is adopted, then this leads to the problem of policy generation for a Markov decision process(MDP) or(in the general case) partially observable Markov decision process(POMDP).
即ち、システム(1)が正常状態または疾病前状態である場合、当該離散確率過程は、マルコフ過程(stochasticMarkovprocess)であり、マルコフマトリックスP=(pu,v)で定義することができる。
That is, when the system(1) is in a normal state or a pre-disease state, the discrete stochastic process is a Stochastic Markov process and can be defined by a Markov matrix P=(p u, v).
マルコフモデルとは不規則に変化するシステムに対して用いられる確率モデルで、未来の状態は現在の状態のみに左右され、過去に起きた事象には影響されないと仮定する(つまり、マルコフ性を仮定する)。
In probability theory, a Markov model is a stochastic model used to model randomly changing systems.[1] It is assumed that future states depend only on the current state, not on the events that occurred before it(that is, it assumes the Markov property).
また、アメリカの世論調査のデータを用いて、個人の支持政党の時間的推移に関する実証研究にも取り組みました。これは、個人の支持政党がマルコフ連鎖によって変遷するという仮定の下、最大エントロピー法を用いて、その遷移行列を推定するというものです。
I also conducted an empirical study on transitions in individual preference for political parties using public opinion data from the U.S. I assumed that the partisanship preference changes over time according to a Markov chain and estimated the transitional matrix using the maximum entropy method.
本研究では、流紋岩、花崗岩、斑レイ岩、および堆積岩の4つの地質条件に打設されているアンカーに対して、それぞれ最適な維持補修計画を決定することを目的とし、ワイブル関数やマルコフ連鎖のような統計学的手法を用いて、アンカーの性能低下のシミュレーションを行いました。
This studied base on simulate the deterioration rate of ground anchor by considering statistic approach, for example, Weibull distribution and Markov chain for the purpose that to find the optimum maintenance strategy for each type of geological condition such as Rhyorite, Granite, Gabbro and Sedimentary rock.
アンドレイマルコフ
Andrey Andreevich Markov.
アンドレイマルコフ
Andrei Andreevich Markov.
結果: 220, 時間: 0.0235

異なる言語での マルコフ

トップ辞書のクエリ

日本語 - 英語