Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Latent Dirichlet allocation
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Latent_Dirichlet_allocation
http://dbpedia.org/ontology/abstract Dans le domaine du traitement automatique Dans le domaine du traitement automatique des langues, l’allocation de Dirichlet latente (de l’anglais Latent Dirichlet Allocation) ou LDA est un modèle génératif probabiliste permettant d’expliquer des ensembles d’observations, par le moyen de groupes non observés, eux-mêmes définis par des similarités de données.es définis par des similarités de données. , Latent Dirichlet allocation (LDA) ist ein Latent Dirichlet allocation (LDA) ist ein von David Blei, Andrew Ng und Michael I. Jordan im Jahre 2003 vorgestelltes generatives Wahrscheinlichkeitsmodell für „Dokumente“. Das Modell ist identisch zu einem 2000 publizierten Modell zur Genanalyse von , und P. Donnelly. Dokumente sind in diesem Fall gruppierte, diskrete und ungeordnete Beobachtungen (im Folgenden „Wörter“ genannt). In den meisten Fällen werden Textdokumente verarbeitet, in denen Wörter gruppiert werden, wobei die Wortreihenfolge keine Rolle spielt. Es können aber auch z. B. Pixel aus Bildern verarbeitet werden.. B. Pixel aus Bildern verarbeitet werden. , 자연어 처리에서 잠재 디리클레 할당(Latent Dirichlet allocation, LDA)은 주어진 문서에 대하여 각 문서에 어떤 주제들이 존재하는지를 서술하는 대한 확률적 토픽 모델 기법 중 하나이다. 미리 알고 있는 주제별 단어수 분포를 바탕으로, 주어진 문서에서 발견된 단어수 분포를 분석함으로써 해당 문서가 어떤 주제들을 함께 다루고 있을지를 예측할 수 있다. , 隐含狄利克雷分布(英語:Latent Dirichlet allocation,简称LDA),是一种主题模型,它可以将文档集中每篇文档的主题按照概率分布的形式给出。同时它是一种无监督学习算法,在训练时不需要手工标注的训练集,需要的仅仅是文档集以及指定主题的数量k即可。此外LDA的另一个优点则是,对于每一个主题均可找出一些词语来描述它。 LDA首先由 David M. Blei、吴恩达和迈克尔·I·乔丹于2003年提出,目前在文本挖掘领域包括文本主题识别、文本分类以及文本相似度计算方面都有应用。 , In natural language processing, Latent DirIn natural language processing, Latent Dirichlet Allocation (LDA) is a generative statistical model that explains a set of observations through unobserved groups, and each group explains why some parts of the data are similar. The LDA is an example of a topic model. In this, observations (e.g., words) are collected into documents, and each word's presence is attributable to one of the document's topics. Each document will contain a small number of topics.ent will contain a small number of topics. , En aprendizaje automático, la Asignación LEn aprendizaje automático, la Asignación Latente de Dirichlet (ALD) o Latent Dirichlet Allocation (LDA) es un modelo generativo que permite que conjuntos de observaciones puedan ser explicados por grupos que explican porqué algunas partes de los datos son similares. Por ejemplo, si las observaciones son palabras en documentos, presupone que cada documento es una mezcla de un pequeño número de categorías (también denominados como tópicos) y la aparición de cada palabra en un documento se debe a una de las categorías a las que el documento pertenece. LDA es un ejemplo de y fue presentado como un modelo en grafo para descubrir categorías por David Blei, Andrew Ng y Michael Jordan en 2002.​Blei, Andrew Ng y Michael Jordan en 2002.​ , No processamento de linguagem natural, a aNo processamento de linguagem natural, a alocação latente de Dirichlet (LDA) é um modelo estatístico generativo. Ele permite que conjuntos de observações sejam explicados por variáveis latentes que explicam por que algumas partes dos dados são semelhantes. Por exemplo, se as observações são palavras coletadas em documentos, ele postula que cada documento é uma mistura de um pequeno número de tópicos e que a presença de cada palavra é atribuível a um dos tópicos do documento. O LDA é um exemplo de modelo de tópicos e pertence às ferramentas principais do campo do aprendizado de máquinas e, em sentido mais amplo, às ferramentas de inteligência artificial.às ferramentas de inteligência artificial. , Латентное размещение Дирихле (LDA, от англЛатентное размещение Дирихле (LDA, от англ. Latent Dirichlet allocation) — применяемая в машинном обучении и информационном поиске , позволяющая объяснять результаты наблюдений с помощью неявных групп, благодаря чему возможно выявление причин сходства некоторых частей данных. Например, если наблюдениями являются слова, собранные в документы, утверждается, что каждый документ представляет собой смесь небольшого количества тем и что появление каждого слова связано с одной из тем документа. LDA является одним из методов тематического моделирования и впервые был представлен в качестве графовой модели для обнаружения тематик Дэвидом Блеем, Эндрю Ыном и Майклом Джорданом в 2003 году. В LDA каждый документ может рассматриваться как набор различных тематик. Подобный подход схож с вероятностным латентно-семантическим анализом (pLSA) с той разницей, что в LDA предполагается, что распределение тематик имеет в качестве априори распределения Дирихле. На практике в результате получается более корректный набор тематик. К примеру, модель может иметь тематики классифицируемые как «относящиеся к кошкам» и «относящиеся к собакам», тематика обладает вероятностями генерировать различные слова, такие как «мяу», «молоко» или «котёнок», которые можно было бы классифицировать как «относящиеся к кошкам», а слова, не обладающие особой значимостью (к примеру, служебные слова), будут обладать примерно равной вероятностью в различных тематиках.равной вероятностью в различных тематиках. , En el processament de llenguatge natural, En el processament de llenguatge natural, l'Assignació Latent de Dirichlet (LDA, de l'anglès Latent Dirichlet Allocation) és un modelatge de temes que permet analitzar els temes dels que tracten diferents textos. Es considera que cada text és una barreja d'un nombre reduït de temes, i que la presència de cada paraula al text és atribuïble a un dels temes del document.s atribuïble a un dels temes del document.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Latent_Dirichlet_allocation.svg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink https://mahout.apache.org/users/clustering/latent-dirichlet-allocation.html + , https://github.com/qiang2100/STTM%29. + , https://github.com/AmazaspShumik/BayesianML-MCMC/blob/master/Gibbs%20LDA/coll_gibbs_lda.m + , https://github.com/AmazaspShumik/BayesianML-MCMC/blob/master/Gibbs%20LDA/nips_example.m + , https://github.com/datquocnguyen/jLDADMM + , https://www.youtube.com/watch%3Fv=DDq3OVp9dNA/ + , https://code.google.com/p/topic-modeling-tool/ + , https://cran.r-project.org/web/packages/topicmodels/index.html + , https://cran.r-project.org/web/packages/lda/index.html + , http://mimno.infosci.cornell.edu/topics.html + , http://videolectures.net/mlss09uk_blei_tm/ + , http://research.microsoft.com/en-us/um/cambridge/projects/infernet/docs/Latent%20Dirichlet%20Allocation.aspx + , http://mallet.cs.umass.edu/index.php + , https://spark.apache.org/docs/latest/mllib-clustering.html%23latent-dirichlet-allocation-lda +
http://dbpedia.org/ontology/wikiPageID 4605351
http://dbpedia.org/ontology/wikiPageLength 42672
http://dbpedia.org/ontology/wikiPageRevisionID 1109991465
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Tf-idf + , http://dbpedia.org/resource/Dirichlet_distribution + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Population_genetics + , http://dbpedia.org/resource/Posterior_distribution + , http://dbpedia.org/resource/Hadoop + , http://dbpedia.org/resource/K-means_clustering + , http://dbpedia.org/resource/Expectation_Maximization + , http://dbpedia.org/resource/Category:Statistical_natural_language_processing + , http://dbpedia.org/resource/Apache_Spark + , http://dbpedia.org/resource/Topic_model + , http://dbpedia.org/resource/Bayesian_network + , http://dbpedia.org/resource/Statistical_inference + , http://dbpedia.org/resource/Observable_variable + , http://dbpedia.org/resource/Confounding + , http://dbpedia.org/resource/Jonathan_K._Pritchard + , http://dbpedia.org/resource/Pachinko_allocation + , http://dbpedia.org/resource/Plate_notation + , http://dbpedia.org/resource/Gibbs_sampling + , http://dbpedia.org/resource/Hierarchical_Dirichlet_process + , http://dbpedia.org/resource/Peter_Donnelly + , http://dbpedia.org/resource/Category:Latent_variable_models + , http://dbpedia.org/resource/Categorical_distribution + , http://dbpedia.org/resource/Gamma-Poisson_distribution + , http://dbpedia.org/resource/Spatial_latent_Dirichlet_allocation + , http://dbpedia.org/resource/MapReduce + , http://dbpedia.org/resource/LDA-dual_model + , http://dbpedia.org/resource/File:Latent_Dirichlet_allocation.svg + , http://dbpedia.org/resource/STTM + , http://dbpedia.org/resource/Independent_component_analysis + , http://dbpedia.org/resource/Logistic_normal_distribution + , http://dbpedia.org/resource/Variational_Bayesian_methods + , http://dbpedia.org/resource/File:Smoothed_LDA.png + , http://dbpedia.org/resource/Andrew_Ng + , http://dbpedia.org/resource/David_Blei + , http://dbpedia.org/resource/Variational_Bayes + , http://dbpedia.org/resource/Dirichlet-multinomial_distribution + , http://dbpedia.org/resource/Gamma_function + , http://dbpedia.org/resource/Infer.NET + , http://dbpedia.org/resource/Latent_semantic_indexing + , http://dbpedia.org/resource/Probabilistic_latent_semantic_analysis + , http://dbpedia.org/resource/Collapsed_Gibbs_sampling + , http://dbpedia.org/resource/Probabilistic_latent_semantic_indexing + , http://dbpedia.org/resource/Stop_words + , http://dbpedia.org/resource/Non-negative_matrix_factorization + , http://dbpedia.org/resource/R_%28programming_language%29 + , http://dbpedia.org/resource/Chinese_restaurant_process + , http://dbpedia.org/resource/NumPy + , http://dbpedia.org/resource/Information_retrieval + , http://dbpedia.org/resource/Multinomial_distribution + , http://dbpedia.org/resource/Probabilistic_graphical_model + , http://dbpedia.org/resource/Expectation_propagation + , http://dbpedia.org/resource/Association_studies + , http://dbpedia.org/resource/Bayesian_estimator + , http://dbpedia.org/resource/Gensim + , http://dbpedia.org/resource/Natural_language_processing + , http://dbpedia.org/resource/Latent_variable + , http://dbpedia.org/resource/Generative_model + , http://dbpedia.org/resource/Matthew_Stephens_%28statistician%29 + , http://dbpedia.org/resource/Computational_musicology + , http://dbpedia.org/resource/Michael_I._Jordan + , http://dbpedia.org/resource/Category:Probabilistic_models + , http://dbpedia.org/resource/Reversible-jump_Markov_chain_Monte_Carlo +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Distinguish + , http://dbpedia.org/resource/Template:Natural_Language_Processing + , http://dbpedia.org/resource/Template:External_links + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:See_also + , http://dbpedia.org/resource/Template:Technical + , http://dbpedia.org/resource/Template:Short_description +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Statistical_natural_language_processing + , http://dbpedia.org/resource/Category:Probabilistic_models + , http://dbpedia.org/resource/Category:Latent_variable_models +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Model +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Latent_Dirichlet_allocation?oldid=1109991465&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Smoothed_LDA.png + , http://commons.wikimedia.org/wiki/Special:FilePath/Latent_Dirichlet_allocation.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Latent_Dirichlet_allocation +
owl:differentFrom http://dbpedia.org/resource/Linear_discriminant_analysis +
owl:sameAs http://ko.dbpedia.org/resource/%EC%9E%A0%EC%9E%AC_%EB%94%94%EB%A6%AC%ED%81%B4%EB%A0%88_%ED%95%A0%EB%8B%B9 + , https://global.dbpedia.org/id/2WwQu + , http://tr.dbpedia.org/resource/Latent_Dirichlet_allocation + , http://dbpedia.org/resource/Latent_Dirichlet_allocation + , http://ca.dbpedia.org/resource/Assignaci%C3%B3_Latent_de_Dirichlet + , http://ru.dbpedia.org/resource/%D0%9B%D0%B0%D1%82%D0%B5%D0%BD%D1%82%D0%BD%D0%BE%D0%B5_%D1%80%D0%B0%D0%B7%D0%BC%D0%B5%D1%89%D0%B5%D0%BD%D0%B8%D0%B5_%D0%94%D0%B8%D1%80%D0%B8%D1%85%D0%BB%D0%B5 + , http://zh.dbpedia.org/resource/%E9%9A%90%E5%90%AB%E7%8B%84%E5%88%A9%E5%85%8B%E9%9B%B7%E5%88%86%E5%B8%83 + , http://fr.dbpedia.org/resource/Allocation_de_Dirichlet_latente + , http://de.dbpedia.org/resource/Latent_Dirichlet_Allocation + , http://vi.dbpedia.org/resource/Ph%C3%A2n_b%E1%BB%95_Dirichlet_ti%E1%BB%81m_%E1%BA%A9n + , http://es.dbpedia.org/resource/Latent_Dirichlet_Allocation + , http://ro.dbpedia.org/resource/Alocare_latent%C4%83_Dirichlet + , http://pt.dbpedia.org/resource/Aloca%C3%A7%C3%A3o_latente_de_Dirichlet + , http://rdf.freebase.com/ns/m.0cc726 + , http://www.wikidata.org/entity/Q269236 + , http://fa.dbpedia.org/resource/%D8%AA%D8%AE%D8%B5%DB%8C%D8%B5_%D9%BE%D9%86%D9%87%D8%A7%D9%86_%D8%AF%DB%8C%D8%B1%DB%8C%DA%A9%D9%84%D9%87 + , http://yago-knowledge.org/resource/Latent_Dirichlet_allocation +
rdf:type http://dbpedia.org/class/yago/PhysicalEntity100001930 + , http://dbpedia.org/class/yago/WikicatProbabilisticModels + , http://dbpedia.org/class/yago/Person100007846 + , http://dbpedia.org/class/yago/Model110324560 + , http://dbpedia.org/class/yago/Assistant109815790 + , http://dbpedia.org/class/yago/Whole100003553 + , http://dbpedia.org/class/yago/WikicatStatisticalModels + , http://dbpedia.org/class/yago/Worker109632518 + , http://dbpedia.org/class/yago/Object100002684 + , http://dbpedia.org/class/yago/YagoLegalActorGeo + , http://dbpedia.org/class/yago/YagoLegalActor + , http://dbpedia.org/class/yago/CausalAgent100007347 + , http://dbpedia.org/class/yago/LivingThing100004258 + , http://dbpedia.org/class/yago/WikicatLatentVariableModels + , http://dbpedia.org/ontology/Person + , http://dbpedia.org/class/yago/Organism100004475 +
rdfs:comment Dans le domaine du traitement automatique Dans le domaine du traitement automatique des langues, l’allocation de Dirichlet latente (de l’anglais Latent Dirichlet Allocation) ou LDA est un modèle génératif probabiliste permettant d’expliquer des ensembles d’observations, par le moyen de groupes non observés, eux-mêmes définis par des similarités de données.es définis par des similarités de données. , Латентное размещение Дирихле (LDA, от англЛатентное размещение Дирихле (LDA, от англ. Latent Dirichlet allocation) — применяемая в машинном обучении и информационном поиске , позволяющая объяснять результаты наблюдений с помощью неявных групп, благодаря чему возможно выявление причин сходства некоторых частей данных. Например, если наблюдениями являются слова, собранные в документы, утверждается, что каждый документ представляет собой смесь небольшого количества тем и что появление каждого слова связано с одной из тем документа. LDA является одним из методов тематического моделирования и впервые был представлен в качестве графовой модели для обнаружения тематик Дэвидом Блеем, Эндрю Ыном и Майклом Джорданом в 2003 году.ндрю Ыном и Майклом Джорданом в 2003 году. , No processamento de linguagem natural, a aNo processamento de linguagem natural, a alocação latente de Dirichlet (LDA) é um modelo estatístico generativo. Ele permite que conjuntos de observações sejam explicados por variáveis latentes que explicam por que algumas partes dos dados são semelhantes. Por exemplo, se as observações são palavras coletadas em documentos, ele postula que cada documento é uma mistura de um pequeno número de tópicos e que a presença de cada palavra é atribuível a um dos tópicos do documento. O LDA é um exemplo de modelo de tópicos e pertence às ferramentas principais do campo do aprendizado de máquinas e, em sentido mais amplo, às ferramentas de inteligência artificial.às ferramentas de inteligência artificial. , En el processament de llenguatge natural, En el processament de llenguatge natural, l'Assignació Latent de Dirichlet (LDA, de l'anglès Latent Dirichlet Allocation) és un modelatge de temes que permet analitzar els temes dels que tracten diferents textos. Es considera que cada text és una barreja d'un nombre reduït de temes, i que la presència de cada paraula al text és atribuïble a un dels temes del document.s atribuïble a un dels temes del document. , In natural language processing, Latent DirIn natural language processing, Latent Dirichlet Allocation (LDA) is a generative statistical model that explains a set of observations through unobserved groups, and each group explains why some parts of the data are similar. The LDA is an example of a topic model. In this, observations (e.g., words) are collected into documents, and each word's presence is attributable to one of the document's topics. Each document will contain a small number of topics.ent will contain a small number of topics. , Latent Dirichlet allocation (LDA) ist ein Latent Dirichlet allocation (LDA) ist ein von David Blei, Andrew Ng und Michael I. Jordan im Jahre 2003 vorgestelltes generatives Wahrscheinlichkeitsmodell für „Dokumente“. Das Modell ist identisch zu einem 2000 publizierten Modell zur Genanalyse von , und P. Donnelly. Dokumente sind in diesem Fall gruppierte, diskrete und ungeordnete Beobachtungen (im Folgenden „Wörter“ genannt). In den meisten Fällen werden Textdokumente verarbeitet, in denen Wörter gruppiert werden, wobei die Wortreihenfolge keine Rolle spielt. Es können aber auch z. B. Pixel aus Bildern verarbeitet werden.. B. Pixel aus Bildern verarbeitet werden. , En aprendizaje automático, la Asignación LEn aprendizaje automático, la Asignación Latente de Dirichlet (ALD) o Latent Dirichlet Allocation (LDA) es un modelo generativo que permite que conjuntos de observaciones puedan ser explicados por grupos que explican porqué algunas partes de los datos son similares. Por ejemplo, si las observaciones son palabras en documentos, presupone que cada documento es una mezcla de un pequeño número de categorías (también denominados como tópicos) y la aparición de cada palabra en un documento se debe a una de las categorías a las que el documento pertenece. LDA es un ejemplo de y fue presentado como un modelo en grafo para descubrir categorías por David Blei, Andrew Ng y Michael Jordan en 2002.​Blei, Andrew Ng y Michael Jordan en 2002.​ , 자연어 처리에서 잠재 디리클레 할당(Latent Dirichlet allocation, LDA)은 주어진 문서에 대하여 각 문서에 어떤 주제들이 존재하는지를 서술하는 대한 확률적 토픽 모델 기법 중 하나이다. 미리 알고 있는 주제별 단어수 분포를 바탕으로, 주어진 문서에서 발견된 단어수 분포를 분석함으로써 해당 문서가 어떤 주제들을 함께 다루고 있을지를 예측할 수 있다. , 隐含狄利克雷分布(英語:Latent Dirichlet allocation,简称LDA),是一种主题模型,它可以将文档集中每篇文档的主题按照概率分布的形式给出。同时它是一种无监督学习算法,在训练时不需要手工标注的训练集,需要的仅仅是文档集以及指定主题的数量k即可。此外LDA的另一个优点则是,对于每一个主题均可找出一些词语来描述它。 LDA首先由 David M. Blei、吴恩达和迈克尔·I·乔丹于2003年提出,目前在文本挖掘领域包括文本主题识别、文本分类以及文本相似度计算方面都有应用。
rdfs:label Latent Dirichlet Allocation , 隐含狄利克雷分布 , Allocation de Dirichlet latente , 잠재 디리클레 할당 , Alocação latente de Dirichlet , Assignació Latent de Dirichlet , Латентное размещение Дирихле , Latent Dirichlet allocation
rdfs:seeAlso http://dbpedia.org/resource/Dirichlet-multinomial_distribution +
hide properties that link here 
http://dbpedia.org/resource/Michael_I._Jordan + http://dbpedia.org/ontology/knownFor
http://dbpedia.org/resource/Latent_Dirichlet_Allocation + , http://dbpedia.org/resource/Latent_dirichlet_allocation + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/David_Blei + , http://dbpedia.org/resource/Michal_Rosen-Zvi + , http://dbpedia.org/resource/Collaborative_filtering + , http://dbpedia.org/resource/Information_retrieval + , http://dbpedia.org/resource/Michael_I._Jordan + , http://dbpedia.org/resource/Rumelhart_Prize + , http://dbpedia.org/resource/Semantic_analysis_%28machine_learning%29 + , http://dbpedia.org/resource/Gensim + , http://dbpedia.org/resource/GraphLab + , http://dbpedia.org/resource/Latent_Dirichlet_Allocation + , http://dbpedia.org/resource/Latent_and_observable_variables + , http://dbpedia.org/resource/Pachinko_allocation + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Multimodal_learning + , http://dbpedia.org/resource/Apache_Spark + , http://dbpedia.org/resource/Generative_model + , http://dbpedia.org/resource/List_of_things_named_after_Peter_Gustav_Lejeune_Dirichlet + , http://dbpedia.org/resource/Hierarchical_Dirichlet_process + , http://dbpedia.org/resource/Online_newspaper + , http://dbpedia.org/resource/Topic_model + , http://dbpedia.org/resource/List_of_statistics_articles + , http://dbpedia.org/resource/Probabilistic_latent_semantic_analysis + , http://dbpedia.org/resource/Dirichlet_distribution + , http://dbpedia.org/resource/Gibbs_sampling + , http://dbpedia.org/resource/Latent_semantic_analysis + , http://dbpedia.org/resource/Dirichlet-multinomial_distribution + , http://dbpedia.org/resource/Variational_message_passing + , http://dbpedia.org/resource/Plate_notation + , http://dbpedia.org/resource/Pitman%E2%80%93Yor_process + , http://dbpedia.org/resource/Mixture_model + , http://dbpedia.org/resource/Dynamic_topic_model + , http://dbpedia.org/resource/Online_content_analysis + , http://dbpedia.org/resource/Bag-of-words_model_in_computer_vision + , http://dbpedia.org/resource/Document-term_matrix + , http://dbpedia.org/resource/Tf%E2%80%93idf + , http://dbpedia.org/resource/Object_categorization_from_image_search + , http://dbpedia.org/resource/Andrew_Ng + , http://dbpedia.org/resource/Outline_of_natural_language_processing + , http://dbpedia.org/resource/Word2vec + , http://dbpedia.org/resource/Latent_dirichlet_allocation + , http://dbpedia.org/resource/LDA + http://dbpedia.org/ontology/wikiPageWikiLink
http://dbpedia.org/resource/Michael_I._Jordan + http://dbpedia.org/property/knownFor
http://en.wikipedia.org/wiki/Latent_Dirichlet_allocation + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Linear_discriminant_analysis + owl:differentFrom
http://dbpedia.org/resource/Latent_Dirichlet_allocation + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.