MARKOV in English translation

Examples of using Markov in Vietnamese and their translations into English

{-}
  • Colloquial category close
  • Ecclesiastic category close
  • Computer category close
Khám nghiệm tử thi cho thấy một quả cầu rất nhỏ làm bằng một hợp kim platinum- iridium dính trên đùi Markov.
An autopsy revealed a tiny sphere made of a platinum-iridium alloy in Markov's thigh.
Markov và người em trai của ông Vladimir Andreevich Markov( 1871- 1897) đã chứng minh được bất đẳng thức anh em Markov.
Markov and his younger brother Vladimir Andreevich Markov(1871- 1897) proved the Markov brothers' inequality.
phải cần một máy quét laser quét khuôn mặt Markov.
we need ultra-detailed measurements to get this thing to work, which means a laser scan of Markov's face.
PageRank của một trang web dùng bởi Google được định nghĩa bằng một xích Markov.
The PageRank of a webpage as used by Google is defined by a Markov chain.
Sergei Markov, một chuyên gia chính trị nổi danh, viết trên Facebook:“
Sergei Markov, a high-profile pro-government political expert, wrote on Facebook:"One needs to say,
Ngoài ra, còn có giải Georgi Markov- cho kịch bản có triển vọng nhất,
In addition, there's the Georgi Markov prize- for the most promising script, this prize gives
Trên Facebook, ông Sergei Markov, một chuyên gia cao cấp về chính trị, có quan điểm thân chính phủ,
Sergei Markov, a high-profile pro-government political expert, wrote on Facebook:"One needs to say, honestly, that Boris Nemtsov
Ma trận ngẫu nhiên được sử dụng để tìm xích Markov với những trạng thái hữu hạn.[ 97]
Stochastic matrices are used to define Markov chains with finitely many states.[70] A row of the stochastic matrix gives the
mở ra bằng cách giới thiệu khái niệm của entropy thông qua mô hình hóa Markov của ngôn ngữ tiếng Anh.
Mathematical Theory of Communication, which in a single step created the field of information theory, opens by introducing the concept of entropy through Markov modeling of the English language.
trong một thẻ giả dựa trên quá trình Markov và chỉ hoạt động một thời gian nhất định,
predicatively in performance art, as in a card trick based on a Markov process that only works some of the time, the occasion of which can
Nhà tâm lý học Christopher Frith- có h- index ngang ngửa với Friston- từng mô tả một tấm chăn Markov như“ phiên bản nhận thức của một màng tế bào, bảo vệ các trạng thái bên trong chăn trước các trạng thái bên ngoài”.
The psychologist Christopher Frith- who has an h-index on par with Friston's- once described a Markov blanket as‘a cognitive version of a cell membrane, shielding states inside the blanket from states outside.'”.
Môi trường thường được biểu diễn dưới dạng một quá trình quyết định Markov trạng thái hữu hạn( Markov decision process- MDP), và các thuật toán học tăng cường cho ngữ cảnh này có liên quan nhiều đến các kỹ thuật quy hoạch động.
The environment is typically formulated as a Markov decision process(MDP), and many reinforcement learning algorithms for this context are highly related to dynamic programming techniques.
Quá trình Markov Trong lí thuyết xác suất, quá trình Markov
In probability theory, a Markov process is a stochastic process characterized as follows:
Nhà tâm lý học Christopher Frith- có h- index ngang ngửa với Friston- từng mô tả một tấm chăn Markov như“ phiên bản nhận thức của một màng tế bào, bảo vệ các trạng thái bên trong chăn trước các trạng thái bên ngoài”.
The psychologist Christopher Frith-who has an h-index on par with Friston's-once described a Markov blanket as‘a cognitive version of a cell membrane, shielding states inside the blanket from states outside.'”.
các phương pháp tiên tiến hơn như quy hoạch tuyến tính, chuỗi Markov và mô phỏng Monte Carlo.
decision analysis, but also more advanced methodologies such as linear programming, the Markov chain and Monte Carlo simulation.
mô hình Markov.
building what scientists call a Markov model.
một quá trình quyết định Markov làm giảm một chuỗi Markov.
all rewards are the same(e.g."zero"), a Markov decision process reduces to a Markov chain.
các trạng thái chuyển tiếp của một quá trình MDP thỏa mãn thuộc tính Markov.
all previous states and actions; in other words, the state transitions of an MDP process satisfies the Markov property.
Ghi chú rằng khi một quá trình quyết định Markov được kết hợp với một nguyên tắc theo cách thức như vậy, điều này sẽ làm cho hành động cho mỗi trạng thái và sự kết hợp kết quả sẽ hành xử giống như một xích Markov.
Note that once a Markov decision process is combined with a policy in this way, this fixes the action for each state and the resulting combination behaves like a Markov chain.
Lý thuyết xếp hàng dựa trên chuỗi Markov và các quy trình ngẫu nhiên.[
Queue theory is based on Markov chains and stochastic processes.[50] Computations of safety
Results: 297, Time: 0.0216

Top dictionary queries

Vietnamese - English