Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Markov property
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Markov_property
http://dbpedia.org/ontology/abstract 马尔可夫性质(英語:Markov property)是概率论中的一个概念,因為俄國數马尔可夫性质(英語:Markov property)是概率论中的一个概念,因為俄國數學家安德雷·馬可夫得名。当一个随机过程在给定现在状态及所有过去状态情况下,其未来状态的条件概率分布仅依赖于当前状态;换句话说,在给定现在状态时,它与过去状态(即该过程的历史路径)是条件独立的,那么此随机过程即具有马尔可夫性质。具有马尔可夫性质的过程通常称之为马尔可夫过程。 数学上,如果为一个随机过程,则马尔可夫性质就是指 马尔可夫过程通常称其为(时间)齐次,如果满足 除此之外则被称为是(时间)非齐次的。齐次马尔可夫过程通常比非齐次的简单,构成了最重要的一类马尔可夫过程。 某些情况下,明显的也可以通过扩展“现在”和“未来”状态的概念来构造一个马尔可夫表示。设为一个非马尔可夫过程。我们就可以定义一个新的过程,使得每一个的状态表示的一个时间区间上的状态,用数学方法来表示,即, 如果具有马尔可夫性质,则它就是的一个马尔可夫表示。在这个情况下,也可以被称为是二阶马尔可夫过程。更高阶马尔可夫过程也可类似地来定义。 具有马尔可夫表示的非马尔可夫过程的例子,例如有移动平均时间序列。 最有名的马尔可夫过程为马尔可夫链,但不少其他的过程,包括布朗运动也是马尔可夫过程。 最有名的马尔可夫过程为马尔可夫链,但不少其他的过程,包括布朗运动也是马尔可夫过程。 , Własność Markowa – własność procesów stochWłasność Markowa – własność procesów stochastycznych polegająca na tym, że warunkowe rozkłady prawdopodobieństwa przyszłych stanów procesu są zdeterminowane wyłącznie przez jego bieżący stan, bez względu na przeszłość. Ściślej: przyszłe stany procesu są od stanów przeszłych. Procesy stochastyczne, które posiadają własność Markowa, nazywamy procesami Markowa. Typowym przykładem w fizyce jest proces opisujący ruchy Browna.fizyce jest proces opisujący ruchy Browna. , Em teoria da probabilidades e estatística,Em teoria da probabilidades e estatística, o termo propriedade de Markov ou propriedade markoviana se refere à propriedade de perda de memória de um processo estocástico. Tem este nome devido ao matemático russo Andrei Markov. Um processo estocástico tem a propriedade de Markov se a distribuição de probabilidade condicional de estados futuros do processo (condicional tanto em estados passados, como presentes) depende apenas do estado presente, não da sequência de eventos que o precedeu. Um processo com esta propriedade é chamado de processo de Markov. O termo propriedade forte de Markov tem significado semelhante à propriedade de Markov propriamente dita, exceto pelo fato de que o significado de "presente" é definido em termo de uma variável aleatória conhecida como tempo de espera. O termo pressuposto de Markov é usado para descrever um modelo em que se pressupõe que a propriedade de Markov se mantém, tal como o modelo oculto de Markov. Um campo aleatório de Markov estende esta propriedade a duas ou mais dimensões ou a variáveis aleatórias definidas para uma rede interconectada de itens. Um exemplo de um modelo para um campo como este é o modelo Ising. Um processo estocástico de tempo discreto que satisfaça a propriedade de Markov é conhecido como cadeia de Markov. Markov é conhecido como cadeia de Markov. , En probabilité, un processus stochastique En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »). Un processus qui possède cette propriété est appelé processus de Markov. Pour de tels processus, la meilleure prévision qu'on puisse faire du futur, connaissant le passé et le présent, est identique à la meilleure prévision qu'on puisse faire du futur, connaissant uniquement le présent : si on connait le présent, la connaissance du passé n'apporte pas d'information supplémentaire utile pour la prédiction du futur.entaire utile pour la prédiction du futur. , En teoría de probabilidad y estadística, lEn teoría de probabilidad y estadística, la propiedad de Markov se refiere a la propiedad de ciertos procesos estocásticos por la cual "carecen de memoria", lo que significa que la distribución de probabilidad del valor futuro de una variable aleatoria depende únicamente de su valor presente, siendo independiente de la historia de dicha variable.​ A los procesos que satisfacen esta condición se les conoce como procesos de Márkov​Debe su nombre al matemático ruso Andréi Márkov, quien desarrolló la teoría de las cadenas de Márkov.​rolló la teoría de las cadenas de Márkov.​ , خاصية ماركوف هي خاصية لعملية تصادفية ليس لخاصية ماركوف هي خاصية لعملية تصادفية ليس لها ذاكرة. سميت هذه الخاصية على اسم الرياضياتي الروسي آندريه ماركوف. يقال عن عملية تصادفية ما بأن لها خاصية ماركوف إن كان التوزع الاحتمالي المشروط للحالات المستقبلية للعملية يعتمد فقط على حالتها الحالية، وليس على سلسلة الأحداث التي سبقت ذلك. يطلق اسم عملية ماركوف عن العملية التي لها خاصية ماركوف. يوسع مفهوم حقل ماركوف العشوائي هذه الخاصية إلى بعدين أو أكثر أو إلى أكثر من متغير معرفة على شبكة مترابطة من العناصر.ن متغير معرفة على شبكة مترابطة من العناصر. , La propietat de Màrkov defineix que una caLa propietat de Màrkov defineix que una cadena de Màrkov es pot caracteritzar per la probabilitat d'anar a l'estat n+1 condicionada al fet que abans siguem a l'estat nn: Que és la probabilitat de transició del procés. La propietat de les cadenes de Màrkov és que les transicions entre els estats, només pot produir-se entre estats veïns. Només es pot arribar a l'estat i des de l'estat i-1 o bé de i+1. Aquest tipus d'estadístiques se sol trobar en la distribució exponencial, la funció de densitat de probabilitat de la qual s'expressa així: Comprovem que un procés definit per aquesta fdp no té memòria. La probabilitat que hi haja una transició entre 0 i un temps t qualsevol és: Si integrem, obtenim: Ara anem a calcular la probabilitat per al mateix interval t, però amb un instant d'inici diferent t0. Calculem la probabilitat de tindre una transició en l'interval t (de t0 fins a t0+t) condicionat al fet que abans de t0 no hi ha hagut cap transició: Substituint per les fdp i substituint: Amb la qual cosa queda demostrat que la probabilitat de tindre una transició en un estat no depèn del temps anterior.ó en un estat no depèn del temps anterior. , Nella teoria della probabilità, la proprieNella teoria della probabilità, la proprietà di Markov per un processo stocastico consiste nella dipendenza esclusiva dallo stato presente della variabile casuale dei futuri stati, e per esempio non dagli stati passati (la storia o percorso del processo) ma soltanto dall'ultima osservazione.Un processo con la proprietà di Markov è chiamato processo markoviano. In matematica, se X(t), t > 0, è un processo stocastico, la proprietà di Markov dice che I processi di Markov sono tipicamente detti omogenei se non c'è dipendenza da t, ovvero altrimenti sono detti non omogenei. I processi markoviani omogenei, solitamente più semplici di quelli non omogenei, formano la classe più importante dei processi markoviani. In alcuni casi, processi che paiono non markoviani possono avere comunque rappresentazioni markoviane, costruite espandendo il concetto dello stato corrente e di quello futuro. Posto che X sia un processo non markoviano, definiamo un processo Y tale che ogni stato di Y rappresenti un intervallo di tempo di X: Se Y ha la proprietà di Markov, è una rappresentazione markoviana di X. In tal caso, X è anche detto processo markoviano di secondo ordine. I processi markoviani di più alto ordine sono definiti in modo analogo. Alcuni esempi possono aiutare a comprendere meglio in cosa consiste la proprietà di Markov. * Un esempio di processo non markoviano con una rappresentazione markoviana è una serie temporale a media mobile. * Alcuni processi come il moto browniano sono markoviani. * Si supponga di aver misurato la temperatura una volta al giorno per un totale di 90 misurazioni e di voler prevedere quale valore assumerà nel giorno seguente. Ci si rende facilmente conto che le misurazioni effettuate nei 90 giorni precedenti sono essenziali ai fini della previsione, perché da queste è possibile individuare se l'andamento della temperatura è crescente o decrescente e quindi facilitare la previsione del giorno seguente: in questo caso la storia passata (cioè le predette 90 misurazioni) è tutta importante ai fini della previsione futura e pertanto non gode della proprietà di Markov.rtanto non gode della proprietà di Markov. , マルコフ性(マルコフせい、英: Markov property)とは、確率論におけるマルコフ性(マルコフせい、英: Markov property)とは、確率論における確率過程の持つ特性の一種で、その過程の将来状態の条件付き確率分布が、現在状態のみに依存し、過去のいかなる状態にも依存しない特性を持つことをいう。すなわち、過去の状態が与えられたとき、現在の状態(過程の経路)は条件付き独立である。ロシア人数学者のアンドレイ・マルコフにちなんで名付けられた。 マルコフ性のある確率過程をマルコフ過程と呼び、主に以下のような種類がある。 * マルコフ連鎖(状態変数の取り得る値が離散的なもの) * 連続時間マルコフ過程 数学的に記せば、確率過程 X(t)、t > 0 がマルコフ性を持つ場合、次が成り立つ。 以下が成り立つマルコフ過程を「斉時的; time-homogeneous」であるという。 そうでない場合は「非斉時的; time-inhomogeneous」であるという。斉時的マルコフ過程は一般に非斉時的過程よりも単純であり、マルコフ過程の中でも最も重要なクラスである。 実際にはマルコフ過程でないものを「現在」状態や「将来」状態の概念を拡張することでマルコフ過程的に表現することもある。例えば、X が非マルコフ過程であるとする。ここで、X における状態間の時間間隔を過程 Y の各状態とする。これを数式で表すと次のようになる。 Y がマルコフ性を持つ場合、それは X のマルコフ的表現となる。この場合 X を二階マルコフ過程(second-order Markov process)と呼ぶ。高階マルコフ過程も同様に定義される。 非マルコフ過程のマルコフ的表現の例として、移動平均を時系列に並べた移動平均線がある。 マルコフ過程で最も知られているのはマルコフ連鎖だが、他にも様々な過程があり、ブラウン運動も近似的にはマルコフ性を有する。ルコフ連鎖だが、他にも様々な過程があり、ブラウン運動も近似的にはマルコフ性を有する。 , 확률론에서 마르코프 확률 과정(Марков確率過程, 영어: Markov stochastic process)는 현재에 대한 조건부로 과거와 미래가 서로 독립인 확률 과정이다. 즉, 마르코프 확률 과정은 ‘기억하지 않는’ 확률 과정이다. 마르코프 확률 과정에서 미래를 유추하려 한다면, 오직 현재의 값만이 쓸모가 있으며, 과거의 값들은 아무 추가 정보를 제공하지 못한다. , У теорії ймовірностей та статистиці термінУ теорії ймовірностей та статистиці термін ма́рковська власти́вість (англ. Markov property) відноситься до властивості в стохастичного процесу. Його названо на честь російського математика Андрія Маркова. Стохастичний процес має марковську властивість, якщо умовний розподіл імовірності майбутніх станів цього процесу (обумовлених як минулими, так і поточними станами) залежить лише від поточного стану, а не від послідовності подій, яка передувала йому. Процес із такою властивістю називається марковським процесом (англ. Markov process). Термін си́льна ма́рковська власти́вість (англ. strong Markov property) подібний до марковської властивості, за винятком того, що розуміння «поточного» визначається в термінах випадкової величини, відомої як момент зупину. Обидва терміни «марковська властивість» та «сильна марковська властивість» застосовувалися у зв'язку з особливою властивістю «відсутності пам'яті» експоненційного розподілу. Термін ма́рковське припу́щення (англ. Markov assumption) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі. Марковське випадкове поле (англ. Markov random field) розширює цю властивість на два або більше вимірів, або на випадкові величини, визначені для мережі взаємозв'язаних елементів. Прикладом моделі такого поля є модель Ізінга. Стохастичний процес , який задовольняє марковську властивість, відомий як марковський ланцюг.ластивість, відомий як марковський ланцюг. , In probability theory and statistics, the In probability theory and statistics, the term Markov property refers to the memoryless property of a stochastic process. It is named after the Russian mathematician Andrey Markov. The term strong Markov property is similar to the Markov property, except that the meaning of "present" is defined in terms of a random variable known as a stopping time. The term Markov assumption is used to describe a model where the Markov assumption is assumed to hold, such as a hidden Markov model. A Markov random field extends this property to two or more dimensions or to random variables defined for an interconnected network of items. An example of a model for such a field is the Ising model. A discrete-time stochastic process satisfying the Markov property is known as a Markov chain.arkov property is known as a Markov chain. , Марковское свойство — в теории вероятностеМарковское свойство — в теории вероятностей и статистике термин, который относится к памяти случайного процесса. Это свойство было названо в честь русского математика Андрея Маркова. Стохастический процесс обладает марковским свойством, если условное распределение вероятностей будущих состояний процесса зависит только от нынешнего состояния, а не от последовательности событий, которые предшествовали этому. Процесс, обладающий этим свойством, называется марковским процессом. Термин «строгое марковское свойство» похож на «марковское свойство», за исключением того, что понятие «настоящего состояния процесса» заменяется на марковский момент времени. Оба термина, «свойства Маркова» и «строгого свойства Маркова» были использованы в связи с особым свойством экспоненциального распределения — «отсутствие памяти». Для процессов с дискретным временем с марковским свойством, см. цепь Маркова. с марковским свойством, см. цепь Маркова. , I sannolikhetslära är Markovegenskapen förI sannolikhetslära är Markovegenskapen för en stokastisk process egenskapen att den betingade sannolikhetsfördelningen för tillståndet vid en tidpunkt i framtiden, givet det nuvarande tillståndet och alla tidigare tillstånd, är oberoende av de tidigare tillstånden. Mer löst kan sägas att om väderprognoser följde Markovegenskapen så skulle väderprognosen för morgondagen bara bygga på vädret just nu och inte på vädret för en timme sen eller vid någon annan tidigare tidpunkt. En stokastisk process som har Markovegenskapen brukar kallas Markovkedja.arkovegenskapen brukar kallas Markovkedja.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Wiener_process_3d.png?width=300 +
http://dbpedia.org/ontology/wikiPageID 306422
http://dbpedia.org/ontology/wikiPageLength 8132
http://dbpedia.org/ontology/wikiPageRevisionID 1084143539
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Hysteresis + , http://dbpedia.org/resource/Statistics + , http://dbpedia.org/resource/Chapman%E2%80%93Kolmogorov_equation + , http://dbpedia.org/resource/Natural_filtration + , http://dbpedia.org/resource/Predictive_modelling + , http://dbpedia.org/resource/Bayesian_statistics + , http://dbpedia.org/resource/File:Wiener_process_3d.png + , http://dbpedia.org/resource/Causal_Markov_condition + , http://dbpedia.org/resource/Conditional_probability_distribution + , http://dbpedia.org/resource/Measurable_space + , http://dbpedia.org/resource/Memoryless + , http://dbpedia.org/resource/Probability_theory + , http://dbpedia.org/resource/Stopping_time + , http://dbpedia.org/resource/Ising_model + , http://dbpedia.org/resource/Totally_ordered + , http://dbpedia.org/resource/Category:Markov_processes + , http://dbpedia.org/resource/Hidden_Markov_model + , http://dbpedia.org/resource/Markov_blanket + , http://dbpedia.org/resource/Russia + , http://dbpedia.org/resource/Markov_chain_Monte_Carlo + , http://dbpedia.org/resource/Markov_process + , http://dbpedia.org/resource/Sigma-algebra + , http://dbpedia.org/resource/Intractability_%28complexity%29 + , http://dbpedia.org/resource/Andrey_Markov + , http://dbpedia.org/resource/Markov_model + , http://dbpedia.org/resource/Category:Markov_models + , http://dbpedia.org/resource/Filtration_%28probability_theory%29 + , http://dbpedia.org/resource/Probability_space + , http://dbpedia.org/resource/Adapted_process + , http://dbpedia.org/resource/Probabilistic_forecasting + , http://dbpedia.org/resource/Markov_chain + , http://dbpedia.org/resource/Mathematician + , http://dbpedia.org/resource/Stochastic_process + , http://dbpedia.org/resource/Markov_random_field + , http://dbpedia.org/resource/Brownian_motion + , http://dbpedia.org/resource/Markov_decision_process +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Reflist +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Markov_processes + , http://dbpedia.org/resource/Category:Markov_models +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Markov_property?oldid=1084143539&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Wiener_process_3d.png +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Markov_property +
owl:sameAs http://yago-knowledge.org/resource/Markov_property + , http://ko.dbpedia.org/resource/%EB%A7%88%EB%A5%B4%EC%BD%94%ED%94%84_%ED%99%95%EB%A5%A0_%EA%B3%BC%EC%A0%95 + , http://www.wikidata.org/entity/Q176695 + , http://ja.dbpedia.org/resource/%E3%83%9E%E3%83%AB%E3%82%B3%E3%83%95%E6%80%A7 + , http://pl.dbpedia.org/resource/W%C5%82asno%C5%9B%C4%87_Markowa + , http://ru.dbpedia.org/resource/%D0%9C%D0%B0%D1%80%D0%BA%D0%BE%D0%B2%D1%81%D0%BA%D0%BE%D0%B5_%D1%81%D0%B2%D0%BE%D0%B9%D1%81%D1%82%D0%B2%D0%BE + , http://ar.dbpedia.org/resource/%D8%AE%D8%A7%D8%B5%D9%8A%D8%A9_%D9%85%D8%A7%D8%B1%D9%83%D9%88%D9%81 + , http://hr.dbpedia.org/resource/Markovljevo_svojstvo + , http://uk.dbpedia.org/resource/%D0%9C%D0%B0%D1%80%D0%BA%D0%BE%D0%B2%D1%81%D1%8C%D0%BA%D0%B0_%D0%B2%D0%BB%D0%B0%D1%81%D1%82%D0%B8%D0%B2%D1%96%D1%81%D1%82%D1%8C + , http://zh.dbpedia.org/resource/%E9%A9%AC%E5%B0%94%E5%8F%AF%E5%A4%AB%E6%80%A7%E8%B4%A8 + , http://de.dbpedia.org/resource/Markow-Eigenschaft + , https://global.dbpedia.org/id/huNL + , http://ca.dbpedia.org/resource/Propietat_de_M%C3%A0rkov + , http://pt.dbpedia.org/resource/Propriedade_de_Markov + , http://fr.dbpedia.org/resource/Propri%C3%A9t%C3%A9_de_Markov + , http://es.dbpedia.org/resource/Propiedad_de_M%C3%A1rkov + , http://fa.dbpedia.org/resource/%D8%AE%D8%A7%D8%B5%DB%8C%D8%AA_%D9%85%D8%A7%D8%B1%DA%A9%D9%88%D9%81 + , http://dbpedia.org/resource/Markov_property + , http://bg.dbpedia.org/resource/%D0%9C%D0%B0%D1%80%D0%BA%D0%BE%D0%B2%D1%81%D0%BA%D0%BE_%D1%81%D0%B2%D0%BE%D0%B9%D1%81%D1%82%D0%B2%D0%BE + , http://it.dbpedia.org/resource/Propriet%C3%A0_di_Markov + , http://rdf.freebase.com/ns/m.01skyb + , http://vi.dbpedia.org/resource/Thu%E1%BB%99c_t%C3%ADnh_Markov + , http://af.dbpedia.org/resource/Markov-eienskap + , http://sv.dbpedia.org/resource/Markovegenskapen + , http://su.dbpedia.org/resource/Markov_property +
rdf:type http://dbpedia.org/class/yago/StochasticProcess113561896 + , http://dbpedia.org/class/yago/Event100029378 + , http://dbpedia.org/class/yago/WikicatStochasticProcesses + , http://dbpedia.org/class/yago/Concept105835747 + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/WikicatMarkovProcesses + , http://dbpedia.org/class/yago/Idea105833840 + , http://dbpedia.org/class/yago/Content105809192 + , http://dbpedia.org/class/yago/PsychologicalFeature100023100 + , http://dbpedia.org/class/yago/Activity100407535 + , http://dbpedia.org/class/yago/Act100030358 + , http://dbpedia.org/class/yago/Hypothesis105888929 + , http://dbpedia.org/class/yago/Model105890249 + , http://dbpedia.org/class/yago/YagoPermanentlyLocatedEntity + , http://dbpedia.org/class/yago/Procedure101023820 + , http://dbpedia.org/class/yago/Cognition100023271 +
rdfs:comment I sannolikhetslära är Markovegenskapen förI sannolikhetslära är Markovegenskapen för en stokastisk process egenskapen att den betingade sannolikhetsfördelningen för tillståndet vid en tidpunkt i framtiden, givet det nuvarande tillståndet och alla tidigare tillstånd, är oberoende av de tidigare tillstånden. Mer löst kan sägas att om väderprognoser följde Markovegenskapen så skulle väderprognosen för morgondagen bara bygga på vädret just nu och inte på vädret för en timme sen eller vid någon annan tidigare tidpunkt. En stokastisk process som har Markovegenskapen brukar kallas Markovkedja.arkovegenskapen brukar kallas Markovkedja. , マルコフ性(マルコフせい、英: Markov property)とは、確率論におけるマルコフ性(マルコフせい、英: Markov property)とは、確率論における確率過程の持つ特性の一種で、その過程の将来状態の条件付き確率分布が、現在状態のみに依存し、過去のいかなる状態にも依存しない特性を持つことをいう。すなわち、過去の状態が与えられたとき、現在の状態(過程の経路)は条件付き独立である。ロシア人数学者のアンドレイ・マルコフにちなんで名付けられた。 マルコフ性のある確率過程をマルコフ過程と呼び、主に以下のような種類がある。 * マルコフ連鎖(状態変数の取り得る値が離散的なもの) * 連続時間マルコフ過程 数学的に記せば、確率過程 X(t)、t > 0 がマルコフ性を持つ場合、次が成り立つ。 以下が成り立つマルコフ過程を「斉時的; time-homogeneous」であるという。 そうでない場合は「非斉時的; time-inhomogeneous」であるという。斉時的マルコフ過程は一般に非斉時的過程よりも単純であり、マルコフ過程の中でも最も重要なクラスである。 実際にはマルコフ過程でないものを「現在」状態や「将来」状態の概念を拡張することでマルコフ過程的に表現することもある。例えば、X が非マルコフ過程であるとする。ここで、X における状態間の時間間隔を過程 Y の各状態とする。これを数式で表すと次のようになる。おける状態間の時間間隔を過程 Y の各状態とする。これを数式で表すと次のようになる。 , Em teoria da probabilidades e estatística,Em teoria da probabilidades e estatística, o termo propriedade de Markov ou propriedade markoviana se refere à propriedade de perda de memória de um processo estocástico. Tem este nome devido ao matemático russo Andrei Markov. O termo pressuposto de Markov é usado para descrever um modelo em que se pressupõe que a propriedade de Markov se mantém, tal como o modelo oculto de Markov. Um processo estocástico de tempo discreto que satisfaça a propriedade de Markov é conhecido como cadeia de Markov. Markov é conhecido como cadeia de Markov. , Nella teoria della probabilità, la proprieNella teoria della probabilità, la proprietà di Markov per un processo stocastico consiste nella dipendenza esclusiva dallo stato presente della variabile casuale dei futuri stati, e per esempio non dagli stati passati (la storia o percorso del processo) ma soltanto dall'ultima osservazione.Un processo con la proprietà di Markov è chiamato processo markoviano. In matematica, se X(t), t > 0, è un processo stocastico, la proprietà di Markov dice che I processi di Markov sono tipicamente detti omogenei se non c'è dipendenza da t, ovveromogenei se non c'è dipendenza da t, ovvero , In probability theory and statistics, the In probability theory and statistics, the term Markov property refers to the memoryless property of a stochastic process. It is named after the Russian mathematician Andrey Markov. The term strong Markov property is similar to the Markov property, except that the meaning of "present" is defined in terms of a random variable known as a stopping time. The term Markov assumption is used to describe a model where the Markov assumption is assumed to hold, such as a hidden Markov model. A discrete-time stochastic process satisfying the Markov property is known as a Markov chain.arkov property is known as a Markov chain. , 확률론에서 마르코프 확률 과정(Марков確率過程, 영어: Markov stochastic process)는 현재에 대한 조건부로 과거와 미래가 서로 독립인 확률 과정이다. 즉, 마르코프 확률 과정은 ‘기억하지 않는’ 확률 과정이다. 마르코프 확률 과정에서 미래를 유추하려 한다면, 오직 현재의 값만이 쓸모가 있으며, 과거의 값들은 아무 추가 정보를 제공하지 못한다. , У теорії ймовірностей та статистиці термінУ теорії ймовірностей та статистиці термін ма́рковська власти́вість (англ. Markov property) відноситься до властивості в стохастичного процесу. Його названо на честь російського математика Андрія Маркова. Термін ма́рковське припу́щення (англ. Markov assumption) використовується для опису моделі, в якій передбачається дотримання марковської властивості, наприклад, прихованої марковської моделі. Стохастичний процес , який задовольняє марковську властивість, відомий як марковський ланцюг.ластивість, відомий як марковський ланцюг. , Własność Markowa – własność procesów stochWłasność Markowa – własność procesów stochastycznych polegająca na tym, że warunkowe rozkłady prawdopodobieństwa przyszłych stanów procesu są zdeterminowane wyłącznie przez jego bieżący stan, bez względu na przeszłość. Ściślej: przyszłe stany procesu są od stanów przeszłych. Procesy stochastyczne, które posiadają własność Markowa, nazywamy procesami Markowa. Typowym przykładem w fizyce jest proces opisujący ruchy Browna.fizyce jest proces opisujący ruchy Browna. , خاصية ماركوف هي خاصية لعملية تصادفية ليس لخاصية ماركوف هي خاصية لعملية تصادفية ليس لها ذاكرة. سميت هذه الخاصية على اسم الرياضياتي الروسي آندريه ماركوف. يقال عن عملية تصادفية ما بأن لها خاصية ماركوف إن كان التوزع الاحتمالي المشروط للحالات المستقبلية للعملية يعتمد فقط على حالتها الحالية، وليس على سلسلة الأحداث التي سبقت ذلك. يطلق اسم عملية ماركوف عن العملية التي لها خاصية ماركوف. يوسع مفهوم حقل ماركوف العشوائي هذه الخاصية إلى بعدين أو أكثر أو إلى أكثر من متغير معرفة على شبكة مترابطة من العناصر.ن متغير معرفة على شبكة مترابطة من العناصر. , 马尔可夫性质(英語:Markov property)是概率论中的一个概念,因為俄國數马尔可夫性质(英語:Markov property)是概率论中的一个概念,因為俄國數學家安德雷·馬可夫得名。当一个随机过程在给定现在状态及所有过去状态情况下,其未来状态的条件概率分布仅依赖于当前状态;换句话说,在给定现在状态时,它与过去状态(即该过程的历史路径)是条件独立的,那么此随机过程即具有马尔可夫性质。具有马尔可夫性质的过程通常称之为马尔可夫过程。 数学上,如果为一个随机过程,则马尔可夫性质就是指 马尔可夫过程通常称其为(时间)齐次,如果满足 除此之外则被称为是(时间)非齐次的。齐次马尔可夫过程通常比非齐次的简单,构成了最重要的一类马尔可夫过程。 某些情况下,明显的也可以通过扩展“现在”和“未来”状态的概念来构造一个马尔可夫表示。设为一个非马尔可夫过程。我们就可以定义一个新的过程,使得每一个的状态表示的一个时间区间上的状态,用数学方法来表示,即, 如果具有马尔可夫性质,则它就是的一个马尔可夫表示。在这个情况下,也可以被称为是二阶马尔可夫过程。更高阶马尔可夫过程也可类似地来定义。 具有马尔可夫表示的非马尔可夫过程的例子,例如有移动平均时间序列。 最有名的马尔可夫过程为马尔可夫链,但不少其他的过程,包括布朗运动也是马尔可夫过程。 最有名的马尔可夫过程为马尔可夫链,但不少其他的过程,包括布朗运动也是马尔可夫过程。 , En teoría de probabilidad y estadística, lEn teoría de probabilidad y estadística, la propiedad de Markov se refiere a la propiedad de ciertos procesos estocásticos por la cual "carecen de memoria", lo que significa que la distribución de probabilidad del valor futuro de una variable aleatoria depende únicamente de su valor presente, siendo independiente de la historia de dicha variable.​ A los procesos que satisfacen esta condición se les conoce como procesos de Márkov​Debe su nombre al matemático ruso Andréi Márkov, quien desarrolló la teoría de las cadenas de Márkov.​rolló la teoría de las cadenas de Márkov.​ , En probabilité, un processus stochastique En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »). Un processus qui possède cette propriété est appelé processus de Markov. Pour de tels processus, la meilleure prévision qu'on puisse faire du futur, connaissant le passé et le présent, est identique à la meilleure prévision qu'on puisse faire du futur, connaissant uniquement le présent : si on connait le présent, la connaissance du passé n'apporte pas d'information supplémentaire utile pour la prédiction du futur.entaire utile pour la prédiction du futur. , Марковское свойство — в теории вероятностеМарковское свойство — в теории вероятностей и статистике термин, который относится к памяти случайного процесса. Это свойство было названо в честь русского математика Андрея Маркова. Стохастический процесс обладает марковским свойством, если условное распределение вероятностей будущих состояний процесса зависит только от нынешнего состояния, а не от последовательности событий, которые предшествовали этому. Процесс, обладающий этим свойством, называется марковским процессом. Термин «строгое марковское свойство» похож на «марковское свойство», за исключением того, что понятие «настоящего состояния процесса» заменяется на марковский момент времени. Оба термина, «свойства Маркова» и «строгого свойства Маркова» были использованы в связи с особым свойством экспоненциального распределения — «отсуом экспоненциального распределения — «отсу , La propietat de Màrkov defineix que una caLa propietat de Màrkov defineix que una cadena de Màrkov es pot caracteritzar per la probabilitat d'anar a l'estat n+1 condicionada al fet que abans siguem a l'estat nn: Que és la probabilitat de transició del procés. La propietat de les cadenes de Màrkov és que les transicions entre els estats, només pot produir-se entre estats veïns. Només es pot arribar a l'estat i des de l'estat i-1 o bé de i+1. Aquest tipus d'estadístiques se sol trobar en la distribució exponencial, la funció de densitat de probabilitat de la qual s'expressa així: Si integrem, obtenim: Substituint per les fdp i substituint:im: Substituint per les fdp i substituint:
rdfs:label Propiedad de Márkov , Propietat de Màrkov , Propriedade de Markov , Propriété de Markov , 마르코프 확률 과정 , Proprietà di Markov , Markov property , Марковська властивість , خاصية ماركوف , Markow-Eigenschaft , Własność Markowa , マルコフ性 , Марковское свойство , 马尔可夫性质 , Markovegenskapen
hide properties that link here 
http://dbpedia.org/resource/Markov_assumption + , http://dbpedia.org/resource/Strong_Markov_property + , http://dbpedia.org/resource/Markov_condition + , http://dbpedia.org/resource/Markov-type_property + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Quantum_thermodynamics + , http://dbpedia.org/resource/Hidden_Markov_model + , http://dbpedia.org/resource/Markov_model + , http://dbpedia.org/resource/Discrete-time_Markov_chain + , http://dbpedia.org/resource/List_of_Russian_scientists + , http://dbpedia.org/resource/List_of_Russian_people + , http://dbpedia.org/resource/Multi-agent_reinforcement_learning + , http://dbpedia.org/resource/Partition_function_%28mathematics%29 + , http://dbpedia.org/resource/Stochastic_Petri_net + , http://dbpedia.org/resource/Hysteresis + , http://dbpedia.org/resource/Satellite_galaxy + , http://dbpedia.org/resource/AIXI + , http://dbpedia.org/resource/Stochastic_dynamic_programming + , http://dbpedia.org/resource/Andrey_Markov + , http://dbpedia.org/resource/List_of_Russian_mathematicians + , http://dbpedia.org/resource/Quantum_stochastic_calculus + , http://dbpedia.org/resource/Blumenthal%27s_zero%E2%80%93one_law + , http://dbpedia.org/resource/Telescoping_Markov_chain + , http://dbpedia.org/resource/Cheyette_model + , http://dbpedia.org/resource/Fermi%27s_golden_rule + , http://dbpedia.org/resource/Markov_chain + , http://dbpedia.org/resource/List_of_things_named_after_Andrey_Markov + , http://dbpedia.org/resource/Teletraffic_engineering + , http://dbpedia.org/resource/Markov_perfect_equilibrium + , http://dbpedia.org/resource/Outline_of_probability + , http://dbpedia.org/resource/List_of_statistics_articles + , http://dbpedia.org/resource/Stochastic_differential_equation + , http://dbpedia.org/resource/Memorylessness + , http://dbpedia.org/resource/Chapman%E2%80%93Kolmogorov_equation + , http://dbpedia.org/resource/Time_reversibility + , http://dbpedia.org/resource/Conditional_random_field + , http://dbpedia.org/resource/Martingale_%28probability_theory%29 + , http://dbpedia.org/resource/Markov_random_field + , http://dbpedia.org/resource/Markov_decision_process + , http://dbpedia.org/resource/List_of_probability_topics + , http://dbpedia.org/resource/Slice_sampling + , http://dbpedia.org/resource/L%C3%A9vy_flight + , http://dbpedia.org/resource/Language_model + , http://dbpedia.org/resource/Random_field + , http://dbpedia.org/resource/Examples_of_Markov_chains + , http://dbpedia.org/resource/Variable-order_Markov_model + , http://dbpedia.org/resource/Markov_renewal_process + , http://dbpedia.org/resource/Counting_process + , http://dbpedia.org/resource/Schramm%E2%80%93Loewner_evolution + , http://dbpedia.org/resource/Renewal_theory + , http://dbpedia.org/resource/Gibbs_measure + , http://dbpedia.org/resource/Dirac_delta_function + , http://dbpedia.org/resource/Link_grammar + , http://dbpedia.org/resource/Monte_Carlo_localization + , http://dbpedia.org/resource/Catalog_of_articles_in_probability_theory + , http://dbpedia.org/resource/Speech_processing + , http://dbpedia.org/resource/State_function + , http://dbpedia.org/resource/Heath%E2%80%93Jarrow%E2%80%93Morton_framework + , http://dbpedia.org/resource/Dirichlet_form + , http://dbpedia.org/resource/Hopfield_network + , http://dbpedia.org/resource/Ensemble_%28mathematical_physics%29 + , http://dbpedia.org/resource/Open_quantum_system + , http://dbpedia.org/resource/It%C3%B4_diffusion + , http://dbpedia.org/resource/Poisson_point_process + , http://dbpedia.org/resource/Loop-erased_random_walk + , http://dbpedia.org/resource/Markov_partition + , http://dbpedia.org/resource/Classical_Wiener_space + , http://dbpedia.org/resource/Birth_process + , http://dbpedia.org/resource/Markov_chain_central_limit_theorem + , http://dbpedia.org/resource/Quantum_master_equation + , http://dbpedia.org/resource/Continuous-time_Markov_chain + , http://dbpedia.org/resource/Markov_assumption + , http://dbpedia.org/resource/Markovian + , http://dbpedia.org/resource/Strong_Markov_property + , http://dbpedia.org/resource/Markov_condition + , http://dbpedia.org/resource/Markov-type_property + , http://dbpedia.org/resource/Markov_Property + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Markov_property + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Markov_property + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.