Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Kernel method
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Kernel_method
http://dbpedia.org/ontology/abstract In informatica, i metodi kernel sono una classe di algoritmi per l'analisi di schemi, il cui elemento maggiormente conosciuto sono le macchine a vettori di supporto (SVM). , En apprentissage automatique, l'astuce du En apprentissage automatique, l'astuce du noyau, ou kernel trick en anglais, est une méthode qui permet d'utiliser un classifieur linéaire pour résoudre un problème non linéaire. L'idée est de transformer l'espace de représentation des données d'entrées en un espace de plus grande dimension, où un classifieur linéaire peut être utilisé et obtenir de bonnes performances. La discrimination linéaire dans l'espace de grande dimension (appelé aussi espace de redescription) est équivalente à une discrimination non linéaire dans l'espace d'origine.tion non linéaire dans l'espace d'origine. , In machine learning, kernel machines are aIn machine learning, kernel machines are a class of algorithms for pattern analysis, whose best known member is the support-vector machine (SVM). The general task of pattern analysis is to find and study general types of relations (for example clusters, rankings, principal components, correlations, classifications) in datasets. For many algorithms that solve these tasks, the data in raw representation have to be explicitly transformed into feature vector representations via a user-specified feature map: in contrast, kernel methods require only a user-specified kernel, i.e., a similarity function over all pairs of data points computed using Inner products. The feature map in kernel machines is infinite dimensional but only requires a finite dimensional matrix from user-input according to the Representer theorem. Kernel machines are slow to compute for datasets larger than a couple of thousand examples without parallel processing. Kernel methods owe their name to the use of kernel functions, which enable them to operate in a high-dimensional, implicit feature space without ever computing the coordinates of the data in that space, but rather by simply computing the inner products between the images of all pairs of data in the feature space. This operation is often computationally cheaper than the explicit computation of the coordinates. This approach is called the "kernel trick". Kernel functions have been introduced for sequence data, graphs, text, images, as well as vectors. Algorithms capable of operating with kernels include the kernel perceptron, support-vector machines (SVM), Gaussian processes, principal components analysis (PCA), canonical correlation analysis, ridge regression, spectral clustering, linear adaptive filters and many others. Most kernel algorithms are based on convex optimization or eigenproblems and are statistically well-founded. Typically, their statistical properties are analyzed using statistical learning theory (for example, using Rademacher complexity).for example, using Rademacher complexity). , カーネル法(カーネルほう、英: kernel method)はパターン認識において使カーネル法(カーネルほう、英: kernel method)はパターン認識において使われる手法の一つで、 判別などのアルゴリズムに組み合わせて利用するものである。よく知られているのは、サポートベクターマシンと組み合わせて利用する方法である。 パターン認識の目的は、一般に、 データの構造(例えばクラスタ、ランキング、、相関、分類)を見つけだし、研究することにある。この目的を達成するために、 カーネル法ではデータを高次元の上へ写像する。特徴空間の各座標はデータ要素の一つの特徴に対応し、特徴空間への写像(特徴写像)によりデータの集合はユークリッド空間中の点の集合に変換される。特徴空間におけるデータの構造の分析に際しては、様々な方法がカーネル法と組み合わせて用いられる。特徴写像としては多様な写像を使うことができ(一般に非線形写像が使われる)、それに対応してデータの多様な構造を見いだすことができる。般に非線形写像が使われる)、それに対応してデータの多様な構造を見いだすことができる。 , В машинному навчанні ядрові методи (англ. В машинному навчанні ядрові методи (англ. kernel methods) — це клас алгоритмів для розпізнавання образів, найвідомішим представником якого є метод опорних векторів (англ. support vector machine, SVM). Загальна задача розпізнавання образів полягає у знаходженні та вивченні основних типів відношень (наприклад, кластерів, ранжування, головних компонент, кореляцій, класифікацій) у наборах даних. Для багатьох алгоритмів, які розв'язують ці задачі, дані в сирому представленні має бути явним чином перетворено на представлення у вигляді векторів ознак через визначене користувачем відображення ознак (англ. feature map): на противагу цьому ядрові методи вимагають лише вказаного користувачем ядра (англ. kernel), тобто, функції подібності над парами точок даних у сирому представленні. Ядрові методи завдячують своєю назвою застосуванню , які дозволяють їм діяти в неявному просторі ознак високої вимірності навіть без обчислення координат даних у цьому просторі, натомість просто обчислюючи зображень всіх пар даних у цьому просторі ознак. Ця операція часто є обчислювально менш витратною, ніж явне обчислення координат. Цей підхід називають ядровим трюком (англ. kernel trick). Ядрові функції було представлено для даних послідовностей, , текстів, зображень, як і для векторів. До алгоритмів, здатних працювати з ядрами, належать , метод опорних векторів (англ. support vector machines, SVM), ґаусові процеси, метод головних компонент (англ. principal components analysis, PCA), канонічно-кореляційний аналіз, гребенева регресія, , лінійні адаптивні фільтри та багато інших. Будь-яку може бути перетворено на нелінійну шляхом застосування до неї ядрового трюку: заміни її ознак (провісників) ядровою функцією.[джерело?] Більшість ядрових алгоритмів ґрунтуються на опуклій оптимізації або власних векторах, і є статистично обґрунтованими. Як правило, їхні статистичні властивості аналізують за допомогою теорії статистичного навчання (наприклад, за допомогою ).чного навчання (наприклад, за допомогою ). , Im bezeichnen Kernel-Methoden eine Klasse Im bezeichnen Kernel-Methoden eine Klasse an , die zur Mustererkennung verwendet werden. Sie bedienen sich eines Kernels, um ihre Berechnungen implizit in einem höherdimensionalen Raum auszuführen. Bekannte Kernel-Methoden sind Support Vector Machines, Gaußprozesse und die .rt Vector Machines, Gaußprozesse und die . , Ядерные методы в машинном обучении — это кЯдерные методы в машинном обучении — это класс алгоритмов распознавания образов, наиболее известным представителем которого является метод опорных векторов (МОВ, англ. SVM). Общая задача распознавания образов — найти и изучить общие типы связей (например, кластеров, ранжирования, главных компонент, корреляций, классификаций) в наборах данных. Для многих алгоритмов, решающих эти задачи, данные, представленные в сыром виде, явным образом преобразуются в представление в виде вектора признаков посредством специфичной схемы распределения признаков, однако ядерные методы требуют только задания специфичного ядра, т.е. функции сходства пар точек данных в сыром представлении. Ядерные методы получили своё название из-за использования , которые позволяют им оперировать в неявном пространстве признаков высокой размерности без вычисления координат данных в пространстве, просто вычисляя скалярные произведения между образами всех пар данных в пространстве признаков. Эта операция часто вычислительно дешевле явных вычислений координат. Этот подход называется «ядерным трюком». Ядерные функции были введены для последовательных данных, , текстов, изображений, а также для векторов. Среди алгоритмов, способных работать с ядрами, находятся , методы опорных векторов, гауссовские процессы, метод главных компонент (МГК, англ. PCA), канонический корреляционный анализ, гребневая регрессия, спектральная кластеризация, линейные адаптивные фильтры и многие другие. Любая может быть переведена в нелинейную модель путём применения к модели ядерного трюка, заменив её признаки (предсказатели) ядерной функцией. Большинство ядерных алгоритмов базируются на выпуклой оптимизации или нахождении собственных векторов и статистически хорошо обоснованы. Обычно их статистические свойства анализируются с помощью теории статистического обучения (например, используя ).тического обучения (например, используя ).
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Kernel_trick_idea.svg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink https://www.google.com/books/edition/_/eWUwB_P5pW0C%3Fhl=en + , https://www.google.com/books/edition/Learning_with_Kernels/ZQxiuAEACAAJ%3Fhl=en + , http://www.kernel-machines.org + , http://onlineprediction.net/%3Fn=Main.KernelMethods +
http://dbpedia.org/ontology/wikiPageID 3424576
http://dbpedia.org/ontology/wikiPageLength 12635
http://dbpedia.org/ontology/wikiPageRevisionID 1115063389
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Kernel_density_estimation + , http://dbpedia.org/resource/Cluster_analysis + , http://dbpedia.org/resource/Measure_%28mathematics%29 + , http://dbpedia.org/resource/Kernel_smoother + , http://dbpedia.org/resource/Image_%28mathematics%29 + , http://dbpedia.org/resource/Inner_product + , http://dbpedia.org/resource/File:Kernel_trick_idea.svg + , http://dbpedia.org/resource/Instance-based_learning + , http://dbpedia.org/resource/Neural_tangent_kernel + , http://dbpedia.org/resource/Covariance_function + , http://dbpedia.org/resource/Kernel_methods_for_vector_output + , http://dbpedia.org/resource/Inner_product_space + , http://dbpedia.org/resource/Gaussian_process + , http://dbpedia.org/resource/Ridge_regression + , http://dbpedia.org/resource/Ranking + , http://dbpedia.org/resource/Principal_components + , http://dbpedia.org/resource/Feature_vector + , http://dbpedia.org/resource/Integral + , http://dbpedia.org/resource/Similarity_learning + , http://dbpedia.org/resource/Gaussian_processes + , http://dbpedia.org/resource/Geostatistics + , http://dbpedia.org/resource/Chemoinformatics + , http://dbpedia.org/resource/Graph_kernel + , http://dbpedia.org/resource/Mercer%27s_theorem + , http://dbpedia.org/resource/Kernel_function + , http://dbpedia.org/resource/Adaptive_filter + , http://dbpedia.org/resource/Sign_function + , http://dbpedia.org/resource/Category:Geostatistics + , http://dbpedia.org/resource/Neural_network_Gaussian_process + , http://dbpedia.org/resource/Kriging + , http://dbpedia.org/resource/Representer_theorem + , http://dbpedia.org/resource/Information_extraction + , http://dbpedia.org/resource/3D_reconstruction + , http://dbpedia.org/resource/Category:Kernel_methods_for_machine_learning + , http://dbpedia.org/resource/Radial_basis_function_kernel + , http://dbpedia.org/resource/Convex_optimization + , http://dbpedia.org/resource/Principal_components_analysis + , http://dbpedia.org/resource/Binary_classifier + , http://dbpedia.org/resource/Gram_matrix + , http://dbpedia.org/resource/Similarity_function + , http://dbpedia.org/resource/Covariance_matrix + , http://dbpedia.org/resource/Fisher_kernel + , http://dbpedia.org/resource/Artificial_neural_network + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Category:Classification_algorithms + , http://dbpedia.org/resource/Decision_boundary + , http://dbpedia.org/resource/Eigenvalue%2C_eigenvector_and_eigenspace + , http://dbpedia.org/resource/Positive-definite_matrix + , http://dbpedia.org/resource/Mercer%27s_condition + , http://dbpedia.org/resource/Counting_measure + , http://dbpedia.org/resource/Pattern_analysis + , http://dbpedia.org/resource/String_kernel + , http://dbpedia.org/resource/Polynomial_kernel + , http://dbpedia.org/resource/Positive-definite_kernel + , http://dbpedia.org/resource/Statistical_classification + , http://dbpedia.org/resource/Cover%27s_theorem + , http://dbpedia.org/resource/Spectral_clustering + , http://dbpedia.org/resource/Bioinformatics + , http://dbpedia.org/resource/Positive_definite_kernel + , http://dbpedia.org/resource/Learning_algorithms + , http://dbpedia.org/resource/Canonical_correlation_analysis + , http://dbpedia.org/resource/Feature_space + , http://dbpedia.org/resource/Statistical_learning_theory + , http://dbpedia.org/resource/Kernel_perceptron + , http://dbpedia.org/resource/Support-vector_machine + , http://dbpedia.org/resource/Inner_products + , http://dbpedia.org/resource/Handwriting_recognition + , http://dbpedia.org/resource/Inverse_distance_weighting + , http://dbpedia.org/resource/Correlation + , http://dbpedia.org/resource/Rademacher_complexity +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Mvar + , http://dbpedia.org/resource/Template:Machine_learning_bar + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Reflist +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Geostatistics + , http://dbpedia.org/resource/Category:Classification_algorithms + , http://dbpedia.org/resource/Category:Kernel_methods_for_machine_learning +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Algorithms +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Kernel_method?oldid=1115063389&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/Kernel_trick_idea.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Kernel_method +
owl:sameAs http://uk.dbpedia.org/resource/%D0%AF%D0%B4%D1%80%D0%BE%D0%B2%D1%96_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D0%B8 + , http://rdf.freebase.com/ns/m.09bs7j + , http://fr.dbpedia.org/resource/Astuce_du_noyau + , https://global.dbpedia.org/id/4omsj + , http://de.dbpedia.org/resource/Kernel-Methode + , http://dbpedia.org/resource/Kernel_method + , http://ja.dbpedia.org/resource/%E3%82%AB%E3%83%BC%E3%83%8D%E3%83%AB%E6%B3%95 + , http://it.dbpedia.org/resource/Metodo_kernel + , http://ru.dbpedia.org/resource/%D0%AF%D0%B4%D0%B5%D1%80%D0%BD%D1%8B%D0%B9_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4 + , http://www.wikidata.org/entity/Q620622 + , http://yago-knowledge.org/resource/Kernel_method +
rdf:type http://dbpedia.org/class/yago/PsychologicalFeature100023100 + , http://dbpedia.org/class/yago/Act100030358 + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/Activity100407535 + , http://dbpedia.org/class/yago/Event100029378 + , http://dbpedia.org/class/yago/Cognition100023271 + , http://dbpedia.org/class/yago/YagoPermanentlyLocatedEntity + , http://dbpedia.org/class/yago/Procedure101023820 + , http://dbpedia.org/class/yago/WikicatKernelMethodsForMachineLearning + , http://dbpedia.org/class/yago/Know-how105616786 + , http://dbpedia.org/class/yago/Method105660268 + , http://dbpedia.org/class/yago/WikicatClassificationAlgorithms + , http://dbpedia.org/class/yago/Rule105846932 + , http://dbpedia.org/class/yago/Algorithm105847438 + , http://dbpedia.org/class/yago/Ability105616246 +
rdfs:comment カーネル法(カーネルほう、英: kernel method)はパターン認識において使カーネル法(カーネルほう、英: kernel method)はパターン認識において使われる手法の一つで、 判別などのアルゴリズムに組み合わせて利用するものである。よく知られているのは、サポートベクターマシンと組み合わせて利用する方法である。 パターン認識の目的は、一般に、 データの構造(例えばクラスタ、ランキング、、相関、分類)を見つけだし、研究することにある。この目的を達成するために、 カーネル法ではデータを高次元の上へ写像する。特徴空間の各座標はデータ要素の一つの特徴に対応し、特徴空間への写像(特徴写像)によりデータの集合はユークリッド空間中の点の集合に変換される。特徴空間におけるデータの構造の分析に際しては、様々な方法がカーネル法と組み合わせて用いられる。特徴写像としては多様な写像を使うことができ(一般に非線形写像が使われる)、それに対応してデータの多様な構造を見いだすことができる。般に非線形写像が使われる)、それに対応してデータの多様な構造を見いだすことができる。 , In informatica, i metodi kernel sono una classe di algoritmi per l'analisi di schemi, il cui elemento maggiormente conosciuto sono le macchine a vettori di supporto (SVM). , En apprentissage automatique, l'astuce du En apprentissage automatique, l'astuce du noyau, ou kernel trick en anglais, est une méthode qui permet d'utiliser un classifieur linéaire pour résoudre un problème non linéaire. L'idée est de transformer l'espace de représentation des données d'entrées en un espace de plus grande dimension, où un classifieur linéaire peut être utilisé et obtenir de bonnes performances. La discrimination linéaire dans l'espace de grande dimension (appelé aussi espace de redescription) est équivalente à une discrimination non linéaire dans l'espace d'origine.tion non linéaire dans l'espace d'origine. , В машинному навчанні ядрові методи (англ. В машинному навчанні ядрові методи (англ. kernel methods) — це клас алгоритмів для розпізнавання образів, найвідомішим представником якого є метод опорних векторів (англ. support vector machine, SVM). Загальна задача розпізнавання образів полягає у знаходженні та вивченні основних типів відношень (наприклад, кластерів, ранжування, головних компонент, кореляцій, класифікацій) у наборах даних. Для багатьох алгоритмів, які розв'язують ці задачі, дані в сирому представленні має бути явним чином перетворено на представлення у вигляді векторів ознак через визначене користувачем відображення ознак (англ. feature map): на противагу цьому ядрові методи вимагають лише вказаного користувачем ядра (англ. kernel), тобто, функції подібності над парами точок даних у сирому представленні.парами точок даних у сирому представленні. , Im bezeichnen Kernel-Methoden eine Klasse Im bezeichnen Kernel-Methoden eine Klasse an , die zur Mustererkennung verwendet werden. Sie bedienen sich eines Kernels, um ihre Berechnungen implizit in einem höherdimensionalen Raum auszuführen. Bekannte Kernel-Methoden sind Support Vector Machines, Gaußprozesse und die .rt Vector Machines, Gaußprozesse und die . , Ядерные методы в машинном обучении — это кЯдерные методы в машинном обучении — это класс алгоритмов распознавания образов, наиболее известным представителем которого является метод опорных векторов (МОВ, англ. SVM). Общая задача распознавания образов — найти и изучить общие типы связей (например, кластеров, ранжирования, главных компонент, корреляций, классификаций) в наборах данных. Для многих алгоритмов, решающих эти задачи, данные, представленные в сыром виде, явным образом преобразуются в представление в виде вектора признаков посредством специфичной схемы распределения признаков, однако ядерные методы требуют только задания специфичного ядра, т.е. функции сходства пар точек данных в сыром представлении.ва пар точек данных в сыром представлении. , In machine learning, kernel machines are aIn machine learning, kernel machines are a class of algorithms for pattern analysis, whose best known member is the support-vector machine (SVM). The general task of pattern analysis is to find and study general types of relations (for example clusters, rankings, principal components, correlations, classifications) in datasets. For many algorithms that solve these tasks, the data in raw representation have to be explicitly transformed into feature vector representations via a user-specified feature map: in contrast, kernel methods require only a user-specified kernel, i.e., a similarity function over all pairs of data points computed using Inner products. The feature map in kernel machines is infinite dimensional but only requires a finite dimensional matrix from user-input according to thnal matrix from user-input according to th
rdfs:label Ядерный метод , カーネル法 , Ядрові методи , Kernel-Methode , Metodo kernel , Astuce du noyau , Kernel method
hide properties that link here 
http://dbpedia.org/resource/Yoonkyung_Lee + http://dbpedia.org/ontology/knownFor
http://dbpedia.org/resource/KM + , http://dbpedia.org/resource/Kernel + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Kernel_methods + , http://dbpedia.org/resource/Kernel_machine + , http://dbpedia.org/resource/Kernel_trick + , http://dbpedia.org/resource/Kernel_machines + , http://dbpedia.org/resource/Kernel_Methods + , http://dbpedia.org/resource/Kernel_Machines + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Klaus-Robert_M%C3%BCller + , http://dbpedia.org/resource/Neural_tangent_kernel + , http://dbpedia.org/resource/Feature_hashing + , http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/David_Haussler + , http://dbpedia.org/resource/KM + , http://dbpedia.org/resource/Fault_detection_and_isolation + , http://dbpedia.org/resource/Computational_economics + , http://dbpedia.org/resource/Kristen_Grauman + , http://dbpedia.org/resource/Maria-Florina_Balcan + , http://dbpedia.org/resource/Random_forest + , http://dbpedia.org/resource/Yuichi_Motai + , http://dbpedia.org/resource/Feature_engineering + , http://dbpedia.org/resource/Timeline_of_machine_learning + , http://dbpedia.org/resource/Isomap + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/Multiple_kernel_learning + , http://dbpedia.org/resource/Instance-based_learning + , http://dbpedia.org/resource/Mercer%27s_theorem + , http://dbpedia.org/resource/Yoonkyung_Lee + , http://dbpedia.org/resource/Similarity_learning + , http://dbpedia.org/resource/Kernel_methods + , http://dbpedia.org/resource/Low-rank_matrix_approximations + , http://dbpedia.org/resource/Cover%27s_theorem + , http://dbpedia.org/resource/Positive-definite_kernel + , http://dbpedia.org/resource/Radial_basis_function_kernel + , http://dbpedia.org/resource/Kernel_machine + , http://dbpedia.org/resource/Ontology_learning + , http://dbpedia.org/resource/Integral_transform + , http://dbpedia.org/resource/Kernel_trick + , http://dbpedia.org/resource/Kernel_regression + , http://dbpedia.org/resource/Manifold_regularization + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Protein%E2%80%93protein_interaction + , http://dbpedia.org/resource/Outline_of_statistics + , http://dbpedia.org/resource/Kernel_machines + , http://dbpedia.org/resource/Kernel + , http://dbpedia.org/resource/Kernel_Methods + , http://dbpedia.org/resource/Kernel_Machines + , http://dbpedia.org/resource/Kernel_Method + http://dbpedia.org/ontology/wikiPageWikiLink
http://dbpedia.org/resource/Yoonkyung_Lee + http://dbpedia.org/property/knownFor
http://en.wikipedia.org/wiki/Kernel_method + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Kernel_method + owl:sameAs
http://dbpedia.org/resource/Online_machine_learning + rdfs:seeAlso
 

 

Enter the name of the page to start semantic browsing from.