Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Support vector machine
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Support_vector_machine
http://dbpedia.org/ontology/abstract Support vector machines (SVM) neboli metodSupport vector machines (SVM) neboli metoda podpůrných vektorů je metoda strojového učení s učitelem, sloužící zejména pro klasifikaci a také pro regresní analýzu. Na jejím vynalezení se podílel zejména . Základem metody SVM je lineární klasifikátor do dvou tříd. Cílem úlohy je nalézt nadrovinu, která optimálně rozděluje tak, že trénovací data náležející odlišným třídám leží v opačných poloprostorech. nadrovina je taková, že hodnota minima vzdáleností bodů od roviny je co největší. Jinými slovy, okolo nadroviny je na obě strany co nejširší pruh bez bodů . Na popis nadroviny stačí pouze body ležící na okraji tohoto pásma a těch je obvykle málo - tyto body se nazývají podpůrné vektory (angl. support vectors) a odtud název metody. Důležitou součástí techniky Support vector machines je (angl. kernel transformation) prostoru příznaků dat do prostoru transformovaných příznaků typicky vyšší dimenze. Tato jádrová transformace umožňuje převést původně lineárně neseparovatelnou úlohu na úlohu lineárně separovatelnou, na kterou lze dále aplikovat optimalizační algoritmus pro nalezení rozdělující nadroviny. Trik je v tom, že nadrovina je popsána a při výpočtech je použitý pouze skalární součin, a skalární součin transformovaných dat ve vysokorozměrném prostoru se nepočítá explicitně, ale počítá se K(x, x1), tj. hodnota K na datech v původním prostoru parametrů. Používají se různé kernelové transformace. Intuitivně, vyjadřují podobnost dat, tj. svých dvou vstupních argumentů. Výhodou této metody (a jiných metod založených na jádrové transformaci) je, že transformace se dá definovat pro různé typy objektů, nejen body v Rn. Např. pro grafy, stromy, posloupnosti DNA atd.. pro grafy, stromy, posloupnosti DNA atd. , サポートベクターマシン(英: support-vector machine, SVMサポートベクターマシン(英: support-vector machine, SVM)は、教師あり学習を用いるパターン認識モデルの1つである。分類や回帰へ適用できる。1963年にとAlexey Ya. Chervonenkisが線形サポートベクターマシンを発表し、1992年にBernhard E. Boser、Isabelle M. Guyon、ウラジミール・ヴァプニクが非線形へと拡張した。 サポートベクターマシンは、現在知られている手法の中でも認識性能が優れた学習モデルの1つである。サポートベクターマシンが優れた認識性能を発揮することができる理由は、未学習データに対して高い識別性能を得るための工夫があるためである。とができる理由は、未学習データに対して高い識別性能を得るための工夫があるためである。 , Support vector machine (SVM) is een algoriSupport vector machine (SVM) is een algoritme op het gebied van gecontroleerd machinaal leren. De methode is gebaseerd op de theorie van statistisch leren van de Russen Vapnik en Chervonenkis. Ze heeft vele uiteenlopende toepassingen in classificatie en regressie-analyse.gen in classificatie en regressie-analyse. , 在机器学习中,支援向量机(英語:support vector machine,常简称在机器学习中,支援向量机(英語:support vector machine,常简称為SVM,又名支援向量网络)是在分类与迴歸分析中分析数据的監督式學習模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法建立一个将新的实例分配给两个类别之一的模型,使其成为非概率线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。 除了进行线性分类之外,SVM还可以使用所谓的有效地进行非线性分类,将其输入隐式映射到高维特征空间中。 当数据未被标记时,不能进行监督式学习,需要用非監督式學習,它会尝试找出数据到簇的自然聚类,并将新数据映射到这些已形成的簇。将支援向量机改进的聚类算法被称为支援向量聚类,当数据未被标记或者仅一些数据被标记时,支援向量聚类经常在工业应用中用作分类步骤的预处理。据未被标记或者仅一些数据被标记时,支援向量聚类经常在工业应用中用作分类步骤的预处理。 , Метод опорных векторов (англ. SVM, supportМетод опорных векторов (англ. SVM, support vector machine) — набор схожих алгоритмов обучения с учителем, использующихся для задач классификации и регрессионного анализа. Принадлежит семейству линейных классификаторов и может также рассматриваться как частный случай регуляризации по Тихонову. Особым свойством метода опорных векторов является непрерывное уменьшение эмпирической ошибки классификации и увеличение зазора, поэтому метод также известен как метод классификатора с максимальным зазором. Основная идея метода — перевод исходных векторов в пространство более высокой размерности и поиск разделяющей гиперплоскости с наибольшим зазором в этом пространстве. Две параллельных гиперплоскости строятся по обеим сторонам гиперплоскости, разделяющей классы. Разделяющей гиперплоскостью будет гиперплоскость, создающая наибольшее расстояние до двух параллельных гиперплоскостей. Алгоритм основан на допущении, что чем больше разница или расстояние между этими параллельными гиперплоскостями, тем меньше будет средняя ошибка классификатора.еньше будет средняя ошибка классификатора. , Pada dasarnya, support-vector machine (SVM) adalah sebuah algoritma klasifikasi untuk data linear dan non-linear. SVM menggunakan mapping non-linear untuk mentransformasikan training data awal ke dimensi yang lebih tinggi. , Eine Support Vector Machine [səˈpɔːt ˈvektEine Support Vector Machine [səˈpɔːt ˈvektə məˈʃiːn] (SVM, die Übersetzung aus dem Englischen, „Stützvektormaschine“ oder Stützvektormethode, ist nicht gebräuchlich) dient als Klassifikator (vgl. Klassifizierung) und Regressor (vgl. Regressionsanalyse). Eine Support Vector Machine unterteilt eine Menge von Objekten so in Klassen, dass um die Klassengrenzen herum ein möglichst breiter Bereich frei von Objekten bleibt; sie ist ein sogenannter Large Margin Classifier (dt. „Breiter-Rand-Klassifikator“). Support Vector Machines sind keine Maschinen im herkömmlichen Sinne, bestehen also nicht aus greifbaren Bauteilen. Es handelt sich um ein rein mathematisches Verfahren der Mustererkennung, das in Computerprogrammen umgesetzt wird. Der Namensteil machine weist dementsprechend nicht auf eine Maschine hin, sondern auf das Herkunftsgebiet der Support Vector Machines, das maschinelle Lernen.t Vector Machines, das maschinelle Lernen. , Le macchine a vettori di supporto (SVM, daLe macchine a vettori di supporto (SVM, dall'inglese support-vector machines) sono dei modelli di apprendimento supervisionato associati ad algoritmi di apprendimento per la regressione e la classificazione. Dato un insieme di esempi per l'addestramento, ognuno dei quali etichettato con la classe di appartenenza fra le due possibili classi, un algoritmo di addestramento per le SVM costruisce un modello che assegna i nuovi esempi a una delle due classi, ottenendo quindi un classificatore lineare binario non probabilistico. Un modello SVM è una rappresentazione degli esempi come punti nello spazio, mappati in modo tale che gli esempi appartenenti alle due diverse categorie siano chiaramente separati da uno spazio il più possibile ampio. I nuovi esempi sono quindi mappati nello stesso spazio e la predizione della categoria alla quale appartengono viene fatta sulla base del lato nel quale ricade. Oltre alla classificazione lineare è possibile fare uso delle SVM per svolgere efficacemente la classificazione non lineare utilizzando il metodo kernel, mappando implicitamente i loro ingressi in uno spazio delle caratteristiche multi-dimensionale. Quando gli esempi non sono etichettati è impossibile addestrare in modo supervisionato e si rende necessario l'apprendimento non supervisionato: questo approccio cerca d'identificare i naturali gruppi in cui si raggruppano i dati, mappando successivamente i nuovi dati nei gruppi ottenuti. L'algoritmo di raggruppamento a vettori di supporto, creato da Hava Siegelmann e Vladimir N. Vapnik, applica le statistiche dei vettori di supporto, sviluppate negli algoritmi delle SVM, per classificare dati non etichettati, ed è uno degli algoritmi di raggruppamento maggiormente utilizzato nelle applicazioni industriali.utilizzato nelle applicazioni industriali. , Uma máquina de vetores de suporte (SVM, doUma máquina de vetores de suporte (SVM, do inglês: support-vector machine) é um conceito na ciência da computação para um conjunto de métodos de aprendizado supervisionado que analisam os dados e reconhecem padrões, usado para classificação e análise de regressão. O SVM padrão toma como entrada um conjunto de dados e prediz, para cada entrada dada, qual de duas possíveis classes a entrada faz parte, o que faz do SVM um classificador linear binário não probabilístico. Dados um conjunto de exemplos de treinamento, cada um marcado como pertencente a uma de duas categorias, um algoritmo de treinamento do SVM constrói um modelo que atribui novos exemplos a uma categoria ou outra. Um modelo SVM é uma representação de exemplos como pontos no espaço, mapeados de maneira que os exemplos de cada categoria sejam divididos por um espaço claro que seja tão amplo quanto possível. Os novos exemplos são então mapeados no mesmo espaço e preditos como pertencentes a uma categoria baseados em qual o lado do espaço eles são colocados. Em outras palavras, o que uma SVM faz é encontrar uma linha de separação, mais comumente chamada de hiperplano entre dados de duas classes. Essa linha busca maximizar a distância entre os pontos mais próximos em relação a cada uma das classes, ver imagem: Essa distância entre o hiperplano e o primeiro ponto de cada classe costuma ser chamada de margem. A SVM coloca em primeiro lugar a classificação das classes, definindo assim cada ponto pertencente a cada uma das classes, e em seguida maximiza a margem. Ou seja, ela primeiro classifica as classes corretamente e depois em função dessa restrição define a distância entre as margens. Algumas características: * Em caso de outlier a SVM busca a melhor forma possível de classificação e, se necessário, desconsidera o outlier; * Funciona muito bem em domínios complicados, em que existe uma clara margem de separação; * Não funciona bem em conjuntos de dados muito grandes, pois exige inversão de matriz - aumentando a complexidade computacional com até o cubo do volume de dados; * Não funciona bem em conjunto de dados com grande quantidade de ruídos; * Se as classes estiverem muito sobrepostas deve-se utilizar apenas evidências independentes (devido ao fato de não ser muito bom com dados com muitos ruídos);er muito bom com dados com muitos ruídos); , Maszyna wektorów nośnych, maszyna wektorówMaszyna wektorów nośnych, maszyna wektorów wspierających, maszyna wektorów podpierających – abstrakcyjny koncept maszyny, która działa jak klasyfikator, a której nauka ma na celu wyznaczenie hiperpłaszczyzny rozdzielającej z maksymalnym marginesem przykłady należące do dwóch klas. Często jest stosowana niejawnie w procesie rozpoznawania obrazów. Maszyna wektorów nośnych korzystająca z jądra radialnej funkcji bazowej jest w stanie klasyfikować nierozdzielne liniowo klasy. W przypadku wystąpienia więcej niż jednej klasy maszynę wektorów nośnych zazwyczaj uczy się metodą one-versus-rest.zazwyczaj uczy się metodą one-versus-rest. , تُعدّ خوارزمية آلة المتجهات الداعمة (أو شبتُعدّ خوارزمية آلة المتجهات الداعمة (أو شبكة المتجهات الداعمة) واحدة من خوارزميات تعلّم الآلة المراقب (تكون هنا البيانات مصنفة أو مرمزة)، وتُستخدم هذه الخوارزمية لتحليل البيانات من أجل تصنيفها تصنيفًا إحصائيًا أو تحليل الإنحدارلها. تبدأ الخوارزمية إنطلاقًا من البيانات المصنّفة (المرمزة)، وغالبًا ما يكون الترميز باستخدام صفين فقط، فإما أن تنتمي البيانات إلى الصف الأول (س) أو إلى الصف الثاني (ع). بعد ذلك تبدأ عملية التدريب التي تهدف إلى إيجاد إطار الخطي (مستوي مثلًا) يقوم بفصل البيانات بأفضل طريقة ممكنة، بحيث تكون البيانات (س) على طرف المستوي والبيانات (ع) على الطرف الآخر. بمعنى آخر، عندما تُرسم هذه البيانات على محاور الخصائص، تعمل الخوارزمية على إيجاد أفضل إطار الخطي للفصل بين خصائص كلٍ من الصفيّن (س) و (ع) بحيث تكون المسافة بينهما أكبر ما يُمكن. ثم تتم عملية التدريب بحيث يتم تصنيف جزء آخر من البيانات تبعًا للإطار الخطي الذي وُجد في عملية التدريب السابقة. بجانب قدرة خوارزمية آلة المتجهات الداعمة على إيجاد الأُطر الخطيّة، فهي تتمكن أيضًا من إيجاد أُطرغير خطية عن طريق تطبيق خدعة المصفوفة. تُعد هذه الخوارزمية من أشهر طرق التصنيف الآلي لتعلم الآلة، وهي تعتمد على إيجاد إطار خطي (منحني أو مستوي فائق)، بحيث يفصل البيانات المدخلة عن بعضها البعض، ويتميز بإستخدامه في تصنيف المسائل ذات الصفوف (الفئات) الثنائية: مثلًا نُعطي (1) للعينات الإيجابية و (-1) للعينات السلبية. على سبيل المثال: لتصنيف عينات بيانات مرضى تخص مرض الإيدز، إذا كان المخرج (1) يعني أن الشخص مصاب بمرض الإيدز، وإذا كان المخرج (-1) يعني أن الشخص غير مصاب بمرض الإيدز.ج (-1) يعني أن الشخص غير مصاب بمرض الإيدز. , En stödvektormaskin (eng. support-vector mEn stödvektormaskin (eng. support-vector machine) är en typ av statistisk klassificerare, närmare bestämt en generaliserad linjär klassificerare. Den linjära formuleringen av algoritmen introducerades av 1963. Metoden kan även användas för regression. Stödvektormaskiner betraktas som robusta och har använts i många praktiska tillämpningar, till exempel för optisk teckenigenkänning samt ett stort antal olika områden inom språkteknologin och även i datorseende. De kan hantera relativt stora träningsmängder och har metoder för att förhindra överanpassning. metoder för att förhindra överanpassning. , Euskarri bektoredun makinak (ingelesez, support-vector machine, SVM) sailkapenerako eta erregresiorako erabiltzen den algoritmo sorta da. Jatorriz , sailkapen bitar eta erabiltzen den arren, beste aukera asko eskaintzen dutela frogatu izan da. , Les machines à vecteurs de support ou sépaLes machines à vecteurs de support ou séparateurs à vaste marge (en anglais support-vector machine, SVM) sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression. Les SVM sont une généralisation des classifieurs linéaires. Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Chervonenkis. Ils ont rapidement été adoptés pour leur capacité à travailler avec des données de grandes dimensions, le faible nombre d'hyperparamètres, leurs garanties théoriques, et leurs bons résultats en pratique. Les SVM ont été appliqués à de très nombreux domaines (bio-informatique, recherche d'information, vision par ordinateur, finance…). Selon les données, la performance des machines à vecteurs de support est de même ordre, ou même supérieure, à celle d'un réseau de neurones ou d'un modèle de mélanges gaussiens[réf. souhaitée].èle de mélanges gaussiens[réf. souhaitée]. , Una màquina de vector de suport (SVM o supUna màquina de vector de suport (SVM o support-vector machines en anglès) és un concepte al món estadístic i de les ciències de la computació sobre un conjunt d'algorismes que són capaços d'analitzar dades i reconèixer patrons mitjançant l'ús de mètodes d'aprenentatge supervisat. Aquests mètodes són utilitzats principalment en problemes de classificació o d'anàlisi de la regressió. Una màquina de vectors agafa com a entrada un set de dades i prediu, per cadascuna d'aquestes entrades a quina de les dues possibles classes pertany. Mitjançant l'entrenament amb dades d'entrada prèviament classificades, s'estableix un model que separa les dues classes entrants. Aquest model N-dimensional estableix una frontera entre les dues tipologies establertes, aquesta se situa en el punt en el qual la diferència entre classes sigui el més gran possible i el marge d'error sigui zero (dataset separable) o mínim (dataset no separable).S'anomenen vectors de suport als punts que conformen les dues línies paral·leles a l'hiperplà, essent aquesta distància la major possible (marge).uesta distància la major possible (marge). , 서포트 벡터 머신(support vector machine, SVM)은 기계서포트 벡터 머신(support vector machine, SVM)은 기계 학습의 분야 중 하나로 패턴 인식, 자료 분석을 위한 지도 학습 모델이며, 주로 분류와 회귀 분석을 위해 사용한다. 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, SVM 알고리즘은 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. 만들어진 분류 모델은 데이터가 사상된 공간에서 경계로 표현되는데 SVM 알고리즘은 그 중 가장 큰 폭을 가진 경계를 찾는 알고리즘이다. SVM은 선형 분류와 더불어 비선형 분류에서도 사용될 수 있다. 비선형 분류를 하기 위해서 주어진 데이터를 고차원 특징 공간으로 사상하는 작업이 필요한데, 이를 효율적으로 하기 위해 을 사용하기도 한다. 사상하는 작업이 필요한데, 이를 효율적으로 하기 위해 을 사용하기도 한다. , Las máquinas de vectores de soporte o máquLas máquinas de vectores de soporte o máquinas de vector soporte (del inglés support-vector machines, SVM) son un conjunto de algoritmos de aprendizaje supervisado desarrollados por Vladimir Vapnik y su equipo en los laboratorios de AT&T Bell. Estos métodos están propiamente relacionados con problemas de clasificación y regresión. Dado un conjunto de ejemplos de entrenamiento (de muestras) podemos etiquetar las clases y entrenar una SVM para construir un modelo que prediga la clase de una nueva muestra. Intuitivamente, una SVM es un modelo que representa a los puntos de muestra en el espacio, separando las clases a 2 espacios lo más amplios posibles mediante un hiperplano de separación definido como el vector entre los 2 puntos, de las 2 clases, más cercanos al que se llama vector soporte. Cuando las nuevas muestras se ponen en correspondencia con dicho modelo, en función de los espacios a los que pertenezcan, pueden ser clasificadas a una o la otra clase. Más formalmente, una SVM construye un hiperplano o conjunto de hiperplanos en un espacio de dimensionalidad muy alta (o incluso infinita) que puede ser utilizado en problemas de clasificación o regresión. Una buena separación entre las clases permitirá una clasificación correcta.ases permitirá una clasificación correcta. , В машинному навчанні ме́тод опо́рних вектоВ машинному навчанні ме́тод опо́рних векторі́в — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, англ. support vector machines, SVM, також опо́рно-ве́кторними мере́жами, англ. support vector networks). Для заданого набору тренувальних зразків, кожен із яких відмічено як належний до однієї чи іншої з двох категорій, алгоритм тренування ОВМ будує модель, яка відносить нові зразки до однієї чи іншої категорії, роблячи це неймовірнісним бінарним лінійним класифікатором. Модель ОВМ є представленням зразків як точок у просторі, відображених таким чином, що зразки з окремих категорій розділено чистою прогалиною, яка є щонайширшою. Нові зразки тоді відображуються до цього ж простору, й робиться передбачення про їхню належність до категорії на основі того, на який бік прогалини вони потрапляють. На додачу до виконання лінійної класифікації, ОВМ можуть ефективно виконувати нелінійну класифікацію при застосуванні так званого ядрового трюку, неявно відображуючи свої входи до просторів ознак високої вимірності. Коли дані не є міченими, кероване навчання є неможливим, і виникає необхідність у спонтанному навчанні, яке намагається знайти природне кластерування даних на групи, а потім відображувати нові дані на ці сформовані групи. Алгоритм кластерування, який забезпечує вдосконалення опорно-векторним машинам, називається опо́рно-ве́кторним кластерува́нням (англ. support vector clustering), і часто використовується в промислових застосуваннях, коли дані або не є міченими, або коли лише деякі дані є міченими як попередня обробка перед проходом класифікації.редня обробка перед проходом класифікації. , In machine learning, support vector machinIn machine learning, support vector machines (SVMs, also support vector networks) are supervised learning models with associated learning algorithms that analyze data for classification and regression analysis. Developed at AT&T Bell Laboratories by Vladimir Vapnik with colleagues (Boser et al., 1992, Guyon et al., 1993, Cortes and Vapnik, 1995, Vapnik et al., 1997) SVMs are one of the most robust prediction methods, being based on statistical learning frameworks or VC theory proposed by Vapnik (1982, 1995) and Chervonenkis (1974). Given a set of training examples, each marked as belonging to one of two categories, an SVM training algorithm builds a model that assigns new examples to one category or the other, making it a non-probabilistic binary linear classifier (although methods such as Platt scaling exist to use SVM in a probabilistic classification setting). SVM maps training examples to points in space so as to maximise the width of the gap between the two categories. New examples are then mapped into that same space and predicted to belong to a category based on which side of the gap they fall. In addition to performing linear classification, SVMs can efficiently perform a non-linear classification using what is called the kernel trick, implicitly mapping their inputs into high-dimensional feature spaces. When data are unlabelled, supervised learning is not possible, and an unsupervised learning approach is required, which attempts to find natural clustering of the data to groups, and then map new data to these formed groups. The support vector clustering algorithm, created by Hava Siegelmann and Vladimir Vapnik, applies the statistics of support vectors, developed in the support vector machines algorithm, to categorize unlabeled data.s algorithm, to categorize unlabeled data.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/Svm_separating_hyperplanes_%28SVG%29.svg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink http://support.sas.com/documentation/cdl/en/whatsnew/64209/HTML/default/viewer.htm%23emdocwhatsnew71.htm + , http://cs.stanford.edu/people/karpathy/svmjs/demo/ + , http://image.diku.dk/shark/ + , https://cran.r-project.org/package=kernlab + , https://arxiv.org/search/stat%3Fsearchtype=author&query=Wenzel%2C%2BF + , http://paul.rutgers.edu/~dfradkin/papers/svm.pdf + , http://www.csie.ntu.edu.tw/~cjlin/libsvm/ + , http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Seventh%20Printing.pdf%23page=345 + , http://kdd.org/exploration_files/bennett.pdf + , http://www.ivanciuc.org/Files/Reprint/Ivanciuc_SVM_CCR_2007_23_291.pdf + , http://svmlight.joachims.org + , http://www.csie.ntu.edu.tw/~cjlin/liblinear/ + , https://mloss.org/software/view/409/ +
http://dbpedia.org/ontology/wikiPageID 65309
http://dbpedia.org/ontology/wikiPageLength 62950
http://dbpedia.org/ontology/wikiPageRevisionID 1116926893
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Unsupervised_learning + , http://dbpedia.org/resource/Cluster_analysis + , http://dbpedia.org/resource/Synthetic-aperture_radar + , http://dbpedia.org/resource/Graphical_model + , http://dbpedia.org/resource/Winnow_%28algorithm%29 + , http://dbpedia.org/resource/Subderivative + , http://dbpedia.org/resource/Margin_classifier + , http://dbpedia.org/resource/Semi-supervised_learning + , http://dbpedia.org/resource/OpenCV + , http://dbpedia.org/resource/Supervised_learning + , http://dbpedia.org/resource/Platt_scaling + , http://dbpedia.org/resource/Hava_Siegelmann + , http://dbpedia.org/resource/Multiclass_classification + , http://dbpedia.org/resource/Scikit-learn + , http://dbpedia.org/resource/JavaScript + , http://dbpedia.org/resource/Feature_vector + , http://dbpedia.org/resource/Posterior_predictive_distribution + , http://dbpedia.org/resource/Generalization_error + , http://dbpedia.org/resource/Least-squares_support_vector_machine + , http://dbpedia.org/resource/Corinna_Cortes + , http://dbpedia.org/resource/Fisher_kernel + , http://dbpedia.org/resource/Data_augmentation + , http://dbpedia.org/resource/Hypothesis + , http://dbpedia.org/resource/VC_theory + , http://dbpedia.org/resource/Error_correcting_code + , http://dbpedia.org/resource/Hyperplane + , http://dbpedia.org/resource/Tikhonov_regularization + , http://dbpedia.org/resource/Normed_vector_space + , http://dbpedia.org/resource/Rate_of_convergence + , http://dbpedia.org/resource/File:Svr_epsilons_demo.svg + , http://dbpedia.org/resource/Image_classification + , http://dbpedia.org/resource/Kernel_machines + , http://dbpedia.org/resource/Shallow_semantic_parsing + , http://dbpedia.org/resource/File:Svm_separating_hyperplanes_%28SVG%29.svg + , http://dbpedia.org/resource/Linearly_separable + , http://dbpedia.org/resource/File:Kernel_trick_idea.svg + , http://dbpedia.org/resource/Dot_product + , http://dbpedia.org/resource/File:SVM_margin.png + , http://dbpedia.org/resource/File:Kernel_Machine.svg + , http://dbpedia.org/resource/Regularized_least-squares + , http://dbpedia.org/resource/Multiclass_problem + , http://dbpedia.org/resource/Kernel_%28integral_operator%29 + , http://dbpedia.org/resource/Kernel_method + , http://dbpedia.org/resource/Alexey_Chervonenkis + , http://dbpedia.org/resource/Hesse_normal_form + , http://dbpedia.org/resource/Maximum-margin_hyperplane + , http://dbpedia.org/resource/Class_membership_probabilities + , http://dbpedia.org/resource/In_situ_adaptive_tabulation + , http://dbpedia.org/resource/Vladimir_N._Vapnik + , http://dbpedia.org/resource/Transduction_%28machine_learning%29 + , http://dbpedia.org/resource/Shogun_%28toolbox%29 + , http://dbpedia.org/resource/Data_point + , http://dbpedia.org/resource/Loss_function + , http://dbpedia.org/resource/Probabilistic_classification + , http://dbpedia.org/resource/Sign_function + , http://dbpedia.org/resource/Algorithm + , http://dbpedia.org/resource/Hinge_loss + , http://dbpedia.org/resource/Statistical_classification + , http://dbpedia.org/resource/Bayesian_probability + , http://dbpedia.org/resource/Weka_%28machine_learning%29 + , http://dbpedia.org/resource/Cross-validation_%28statistics%29 + , http://dbpedia.org/resource/Vladimir_Vapnik + , http://dbpedia.org/resource/Structured_SVM + , http://dbpedia.org/resource/Regression_analysis + , http://dbpedia.org/resource/Quadratic_programming + , http://dbpedia.org/resource/Sigmoid_function + , http://dbpedia.org/resource/Karush%E2%80%93Kuhn%E2%80%93Tucker_conditions + , http://dbpedia.org/resource/Loss_functions_for_classification + , http://dbpedia.org/resource/Parallelization + , http://dbpedia.org/resource/Relevance_vector_machine + , http://dbpedia.org/resource/Kernel_trick + , http://dbpedia.org/resource/Hyperparameter_%28machine_learning%29 + , http://dbpedia.org/resource/Linear_separability + , http://dbpedia.org/resource/Linear_classifier + , http://dbpedia.org/resource/Space_mapping + , http://dbpedia.org/resource/Grid_search + , http://dbpedia.org/resource/Category:Statistical_classification + , http://dbpedia.org/resource/Real_number + , http://dbpedia.org/resource/Polynomial_kernel + , http://dbpedia.org/resource/Positive-definite_kernel + , http://dbpedia.org/resource/Binary_classifier + , http://dbpedia.org/resource/Handwriting_recognition + , http://dbpedia.org/resource/Radial_basis_function_kernel + , http://dbpedia.org/resource/Big_data + , http://dbpedia.org/resource/Bernhard_Boser + , http://dbpedia.org/resource/Sequential_minimal_optimization + , http://dbpedia.org/resource/AT&T_Bell_Laboratories + , http://dbpedia.org/resource/Isabelle_Guyon + , http://dbpedia.org/resource/Category:Support_vector_machines + , http://dbpedia.org/resource/LIBSVM + , http://dbpedia.org/resource/Permutation_test + , http://dbpedia.org/resource/Distance_from_a_point_to_a_plane + , http://dbpedia.org/resource/Subgradient_method + , http://dbpedia.org/resource/Stochastic_gradient_descent + , http://dbpedia.org/resource/Margin_%28machine_learning%29 + , http://dbpedia.org/resource/Duality_%28optimization%29 + , http://dbpedia.org/resource/Regularization_perspectives_on_support_vector_machines + , http://dbpedia.org/resource/Image_segmentation + , http://dbpedia.org/resource/Empirical_risk_minimization + , http://dbpedia.org/resource/Predictive_analytics + , http://dbpedia.org/resource/Category:Classification_algorithms + , http://dbpedia.org/resource/Newton%27s_method + , http://dbpedia.org/resource/MATLAB + , http://dbpedia.org/resource/Feature_space + , http://dbpedia.org/resource/Logistic_regression + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Text_categorization + , http://dbpedia.org/resource/Binary_classification + , http://dbpedia.org/resource/Coordinate_descent + , http://dbpedia.org/resource/Hyperbolic_tangent + , http://dbpedia.org/resource/Convex_function + , http://dbpedia.org/resource/Normal_%28geometry%29 + , http://dbpedia.org/resource/Interior-point_method + , http://dbpedia.org/resource/Perceptron + , http://dbpedia.org/resource/Bayesian_optimization + , http://dbpedia.org/resource/Directed_acyclic_graph + , http://dbpedia.org/resource/Homogeneous_polynomial +
http://dbpedia.org/property/em 1.5
http://dbpedia.org/property/text "Minimize subject to for ."
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:EquationRef + , http://dbpedia.org/resource/Template:Cn + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:NumBlk + , http://dbpedia.org/resource/Template:EquationNote + , http://dbpedia.org/resource/Template:Cite_journal + , http://dbpedia.org/resource/Template:Citation_not_found + , http://dbpedia.org/resource/Template:Block_indent + , http://dbpedia.org/resource/Template:Math + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Authority_control + , http://dbpedia.org/resource/Template:Citation_needed + , http://dbpedia.org/resource/Template:Machine_learning +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Statistical_classification + , http://dbpedia.org/resource/Category:Classification_algorithms + , http://dbpedia.org/resource/Category:Support_vector_machines +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Models +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Support_vector_machine?oldid=1116926893&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/SVM_margin.png + , http://commons.wikimedia.org/wiki/Special:FilePath/Svr_epsilons_demo.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Svm_separating_hyperplanes_%28SVG%29.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Kernel_Machine.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/Kernel_trick_idea.svg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Support_vector_machine +
owl:sameAs http://yago-knowledge.org/resource/Support_vector_machine + , http://nl.dbpedia.org/resource/Support_vector_machine + , http://ru.dbpedia.org/resource/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BE%D0%BF%D0%BE%D1%80%D0%BD%D1%8B%D1%85_%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BE%D0%B2 + , http://it.dbpedia.org/resource/Macchine_a_vettori_di_supporto + , http://es.dbpedia.org/resource/M%C3%A1quinas_de_vectores_de_soporte + , http://fr.dbpedia.org/resource/Machine_%C3%A0_vecteurs_de_support + , http://tr.dbpedia.org/resource/Destek_vekt%C3%B6r_makinesi + , http://zh.dbpedia.org/resource/%E6%94%AF%E6%8C%81%E5%90%91%E9%87%8F%E6%9C%BA + , http://lt.dbpedia.org/resource/Atramini%C5%B3_vektori%C5%B3_klasifikatorius + , http://uk.dbpedia.org/resource/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BE%D0%BF%D0%BE%D1%80%D0%BD%D0%B8%D1%85_%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D1%96%D0%B2 + , http://pl.dbpedia.org/resource/Maszyna_wektor%C3%B3w_no%C5%9Bnych + , http://www.wikidata.org/entity/Q282453 + , http://d-nb.info/gnd/4505517-8 + , http://bg.dbpedia.org/resource/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%81_%D0%BF%D0%BE%D0%B4%D0%B4%D1%8A%D1%80%D0%B6%D0%B0%D1%89%D0%B8_%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%B8 + , http://ja.dbpedia.org/resource/%E3%82%B5%E3%83%9D%E3%83%BC%E3%83%88%E3%83%99%E3%82%AF%E3%82%BF%E3%83%BC%E3%83%9E%E3%82%B7%E3%83%B3 + , http://rdf.freebase.com/ns/m.0hc2f + , http://eu.dbpedia.org/resource/Euskarri_bektoredun_makina + , http://fa.dbpedia.org/resource/%D9%85%D8%A7%D8%B4%DB%8C%D9%86_%D8%A8%D8%B1%D8%AF%D8%A7%D8%B1_%D9%BE%D8%B4%D8%AA%DB%8C%D8%A8%D8%A7%D9%86%DB%8C + , http://ca.dbpedia.org/resource/M%C3%A0quina_de_vector_de_suport + , http://ar.dbpedia.org/resource/%D8%B4%D8%B9%D8%A7%D8%B9_%D8%A7%D9%84%D8%AF%D8%B9%D9%85_%D8%A7%D9%84%D8%A2%D9%84%D9%8A + , http://ko.dbpedia.org/resource/%EC%84%9C%ED%8F%AC%ED%8A%B8_%EB%B2%A1%ED%84%B0_%EB%A8%B8%EC%8B%A0 + , http://bn.dbpedia.org/resource/%E0%A6%B8%E0%A6%BE%E0%A6%AA%E0%A7%8B%E0%A6%B0%E0%A7%8D%E0%A6%9F-%E0%A6%AD%E0%A7%87%E0%A6%95%E0%A7%8D%E0%A6%9F%E0%A6%B0_%E0%A6%AE%E0%A7%87%E0%A6%B6%E0%A6%BF%E0%A6%A8 + , http://cs.dbpedia.org/resource/Support_vector_machines + , http://pa.dbpedia.org/resource/%E0%A8%B8%E0%A8%AA%E0%A9%8B%E0%A8%B0%E0%A8%9F_%E0%A8%B5%E0%A9%88%E0%A8%95%E0%A8%9F%E0%A8%B0_%E0%A8%AE%E0%A8%B8%E0%A8%BC%E0%A9%80%E0%A8%A8 + , https://global.dbpedia.org/id/2cz3a + , http://mk.dbpedia.org/resource/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%B0_%D1%81%D0%BE_%D0%BF%D0%BE%D0%B4%D0%B4%D1%80%D0%B6%D1%83%D0%B2%D0%B0%D1%87%D0%BA%D0%B8_%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%B8 + , http://sv.dbpedia.org/resource/St%C3%B6dvektormaskin + , http://id.dbpedia.org/resource/Support-vector_machine + , http://sr.dbpedia.org/resource/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4%D0%B0_%D0%BF%D0%BE%D1%82%D0%BF%D0%BE%D1%80%D0%BD%D0%B8%D1%85_%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%B0 + , http://fi.dbpedia.org/resource/Tukivektorikone + , http://ta.dbpedia.org/resource/%E0%AE%AE%E0%AE%BF%E0%AE%95%E0%AF%88%E0%AE%A4%E0%AF%8D%E0%AE%A4%E0%AE%B3%E0%AE%A4%E0%AF%8D%E0%AE%A4%E0%AE%BE%E0%AE%99%E0%AF%8D%E0%AE%95%E0%AF%81_%E0%AE%87%E0%AE%AF%E0%AE%A8%E0%AF%8D%E0%AE%A4%E0%AE%BF%E0%AE%B0%E0%AE%AE%E0%AF%8D + , http://he.dbpedia.org/resource/%D7%9E%D7%9B%D7%95%D7%A0%D7%AA_%D7%95%D7%A7%D7%98%D7%95%D7%A8%D7%99%D7%9D_%D7%AA%D7%95%D7%9E%D7%9B%D7%99%D7%9D + , http://de.dbpedia.org/resource/Support_Vector_Machine + , http://vi.dbpedia.org/resource/M%C3%A1y_vect%C6%A1_h%E1%BB%97_tr%E1%BB%A3 + , http://pt.dbpedia.org/resource/M%C3%A1quina_de_vetores_de_suporte + , http://dbpedia.org/resource/Support_vector_machine + , http://et.dbpedia.org/resource/Tugivektor-masin + , http://sl.dbpedia.org/resource/Metoda_podpornih_vektorjev +
rdf:type http://dbpedia.org/class/yago/Statement106722453 + , http://dbpedia.org/class/yago/Description106724763 + , http://dbpedia.org/class/yago/Specification106725067 + , http://dbpedia.org/class/yago/Rule105846932 + , http://dbpedia.org/class/yago/Communication100033020 + , http://dbpedia.org/ontology/Person + , http://dbpedia.org/class/yago/Algorithm105847438 + , http://dbpedia.org/class/yago/WikicatNeuralNetworks + , http://dbpedia.org/class/yago/Procedure101023820 + , http://dbpedia.org/class/yago/Activity100407535 + , http://dbpedia.org/class/yago/WikicatClassificationAlgorithms + , http://dbpedia.org/class/yago/ComputerArchitecture106725249 + , http://dbpedia.org/class/yago/Act100030358 + , http://dbpedia.org/class/yago/NeuralNetwork106725467 + , http://dbpedia.org/class/yago/Event100029378 + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/PsychologicalFeature100023100 + , http://dbpedia.org/class/yago/YagoPermanentlyLocatedEntity + , http://dbpedia.org/class/yago/Message106598915 +
rdfs:comment 서포트 벡터 머신(support vector machine, SVM)은 기계서포트 벡터 머신(support vector machine, SVM)은 기계 학습의 분야 중 하나로 패턴 인식, 자료 분석을 위한 지도 학습 모델이며, 주로 분류와 회귀 분석을 위해 사용한다. 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, SVM 알고리즘은 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. 만들어진 분류 모델은 데이터가 사상된 공간에서 경계로 표현되는데 SVM 알고리즘은 그 중 가장 큰 폭을 가진 경계를 찾는 알고리즘이다. SVM은 선형 분류와 더불어 비선형 분류에서도 사용될 수 있다. 비선형 분류를 하기 위해서 주어진 데이터를 고차원 특징 공간으로 사상하는 작업이 필요한데, 이를 효율적으로 하기 위해 을 사용하기도 한다. 사상하는 작업이 필요한데, 이를 효율적으로 하기 위해 을 사용하기도 한다. , Support vector machine (SVM) is een algoriSupport vector machine (SVM) is een algoritme op het gebied van gecontroleerd machinaal leren. De methode is gebaseerd op de theorie van statistisch leren van de Russen Vapnik en Chervonenkis. Ze heeft vele uiteenlopende toepassingen in classificatie en regressie-analyse.gen in classificatie en regressie-analyse. , Las máquinas de vectores de soporte o máquLas máquinas de vectores de soporte o máquinas de vector soporte (del inglés support-vector machines, SVM) son un conjunto de algoritmos de aprendizaje supervisado desarrollados por Vladimir Vapnik y su equipo en los laboratorios de AT&T Bell. Más formalmente, una SVM construye un hiperplano o conjunto de hiperplanos en un espacio de dimensionalidad muy alta (o incluso infinita) que puede ser utilizado en problemas de clasificación o regresión. Una buena separación entre las clases permitirá una clasificación correcta.ases permitirá una clasificación correcta. , Support vector machines (SVM) neboli metodSupport vector machines (SVM) neboli metoda podpůrných vektorů je metoda strojového učení s učitelem, sloužící zejména pro klasifikaci a také pro regresní analýzu. Na jejím vynalezení se podílel zejména . Používají se různé kernelové transformace. Intuitivně, vyjadřují podobnost dat, tj. svých dvou vstupních argumentů. Výhodou této metody (a jiných metod založených na jádrové transformaci) je, že transformace se dá definovat pro různé typy objektů, nejen body v Rn. Např. pro grafy, stromy, posloupnosti DNA atd.. pro grafy, stromy, posloupnosti DNA atd. , تُعدّ خوارزمية آلة المتجهات الداعمة (أو شبتُعدّ خوارزمية آلة المتجهات الداعمة (أو شبكة المتجهات الداعمة) واحدة من خوارزميات تعلّم الآلة المراقب (تكون هنا البيانات مصنفة أو مرمزة)، وتُستخدم هذه الخوارزمية لتحليل البيانات من أجل تصنيفها تصنيفًا إحصائيًا أو تحليل الإنحدارلها. تبدأ الخوارزمية إنطلاقًا من البيانات المصنّفة (المرمزة)، وغالبًا ما يكون الترميز باستخدام صفين فقط، فإما أن تنتمي البيانات إلى الصف الأول (س) أو إلى الصف الثاني (ع). بعد ذلك تبدأ عملية التدريب التي تهدف إلى إيجاد إطار الخطي (مستوي مثلًا) يقوم بفصل البيانات بأفضل طريقة ممكنة، بحيث تكون البيانات (س) على طرف المستوي والبيانات (ع) على الطرف الآخر.طرف المستوي والبيانات (ع) على الطرف الآخر. , Метод опорных векторов (англ. SVM, supportМетод опорных векторов (англ. SVM, support vector machine) — набор схожих алгоритмов обучения с учителем, использующихся для задач классификации и регрессионного анализа. Принадлежит семейству линейных классификаторов и может также рассматриваться как частный случай регуляризации по Тихонову. Особым свойством метода опорных векторов является непрерывное уменьшение эмпирической ошибки классификации и увеличение зазора, поэтому метод также известен как метод классификатора с максимальным зазором.тод классификатора с максимальным зазором. , In machine learning, support vector machinIn machine learning, support vector machines (SVMs, also support vector networks) are supervised learning models with associated learning algorithms that analyze data for classification and regression analysis. Developed at AT&T Bell Laboratories by Vladimir Vapnik with colleagues (Boser et al., 1992, Guyon et al., 1993, Cortes and Vapnik, 1995, Vapnik et al., 1997) SVMs are one of the most robust prediction methods, being based on statistical learning frameworks or VC theory proposed by Vapnik (1982, 1995) and Chervonenkis (1974). Given a set of training examples, each marked as belonging to one of two categories, an SVM training algorithm builds a model that assigns new examples to one category or the other, making it a non-probabilistic binary linear classifier (although methods such asinear classifier (although methods such as , Eine Support Vector Machine [səˈpɔːt ˈvektEine Support Vector Machine [səˈpɔːt ˈvektə məˈʃiːn] (SVM, die Übersetzung aus dem Englischen, „Stützvektormaschine“ oder Stützvektormethode, ist nicht gebräuchlich) dient als Klassifikator (vgl. Klassifizierung) und Regressor (vgl. Regressionsanalyse). Eine Support Vector Machine unterteilt eine Menge von Objekten so in Klassen, dass um die Klassengrenzen herum ein möglichst breiter Bereich frei von Objekten bleibt; sie ist ein sogenannter Large Margin Classifier (dt. „Breiter-Rand-Klassifikator“).sifier (dt. „Breiter-Rand-Klassifikator“). , Euskarri bektoredun makinak (ingelesez, support-vector machine, SVM) sailkapenerako eta erregresiorako erabiltzen den algoritmo sorta da. Jatorriz , sailkapen bitar eta erabiltzen den arren, beste aukera asko eskaintzen dutela frogatu izan da. , サポートベクターマシン(英: support-vector machine, SVMサポートベクターマシン(英: support-vector machine, SVM)は、教師あり学習を用いるパターン認識モデルの1つである。分類や回帰へ適用できる。1963年にとAlexey Ya. Chervonenkisが線形サポートベクターマシンを発表し、1992年にBernhard E. Boser、Isabelle M. Guyon、ウラジミール・ヴァプニクが非線形へと拡張した。 サポートベクターマシンは、現在知られている手法の中でも認識性能が優れた学習モデルの1つである。サポートベクターマシンが優れた認識性能を発揮することができる理由は、未学習データに対して高い識別性能を得るための工夫があるためである。とができる理由は、未学習データに対して高い識別性能を得るための工夫があるためである。 , Uma máquina de vetores de suporte (SVM, doUma máquina de vetores de suporte (SVM, do inglês: support-vector machine) é um conceito na ciência da computação para um conjunto de métodos de aprendizado supervisionado que analisam os dados e reconhecem padrões, usado para classificação e análise de regressão. O SVM padrão toma como entrada um conjunto de dados e prediz, para cada entrada dada, qual de duas possíveis classes a entrada faz parte, o que faz do SVM um classificador linear binário não probabilístico. Dados um conjunto de exemplos de treinamento, cada um marcado como pertencente a uma de duas categorias, um algoritmo de treinamento do SVM constrói um modelo que atribui novos exemplos a uma categoria ou outra. Um modelo SVM é uma representação de exemplos como pontos no espaço, mapeados de maneira que os exemplos de cada catdos de maneira que os exemplos de cada cat , Les machines à vecteurs de support ou sépaLes machines à vecteurs de support ou séparateurs à vaste marge (en anglais support-vector machine, SVM) sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression. Les SVM sont une généralisation des classifieurs linéaires.généralisation des classifieurs linéaires. , Le macchine a vettori di supporto (SVM, daLe macchine a vettori di supporto (SVM, dall'inglese support-vector machines) sono dei modelli di apprendimento supervisionato associati ad algoritmi di apprendimento per la regressione e la classificazione. Dato un insieme di esempi per l'addestramento, ognuno dei quali etichettato con la classe di appartenenza fra le due possibili classi, un algoritmo di addestramento per le SVM costruisce un modello che assegna i nuovi esempi a una delle due classi, ottenendo quindi un classificatore lineare binario non probabilistico. Un modello SVM è una rappresentazione degli esempi come punti nello spazio, mappati in modo tale che gli esempi appartenenti alle due diverse categorie siano chiaramente separati da uno spazio il più possibile ampio. I nuovi esempi sono quindi mappati nello stesso spazio i sono quindi mappati nello stesso spazio , Una màquina de vector de suport (SVM o supUna màquina de vector de suport (SVM o support-vector machines en anglès) és un concepte al món estadístic i de les ciències de la computació sobre un conjunt d'algorismes que són capaços d'analitzar dades i reconèixer patrons mitjançant l'ús de mètodes d'aprenentatge supervisat. Aquests mètodes són utilitzats principalment en problemes de classificació o d'anàlisi de la regressió. Una màquina de vectors agafa com a entrada un set de dades i prediu, per cadascuna d'aquestes entrades a quina de les dues possibles classes pertany. Mitjançant l'entrenament amb dades d'entrada prèviament classificades, s'estableix un model que separa les dues classes entrants. Aquest model N-dimensional estableix una frontera entre les dues tipologies establertes, aquesta se situa en el punt en el qual la difesta se situa en el punt en el qual la dife , Pada dasarnya, support-vector machine (SVM) adalah sebuah algoritma klasifikasi untuk data linear dan non-linear. SVM menggunakan mapping non-linear untuk mentransformasikan training data awal ke dimensi yang lebih tinggi. , В машинному навчанні ме́тод опо́рних вектоВ машинному навчанні ме́тод опо́рних векторі́в — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, англ. support vector machines, SVM, також опо́рно-ве́кторними мере́жами, англ. support vector networks). Для заданого набору тренувальних зразків, кожен із яких відмічено як належний до однієї чи іншої з двох категорій, алгоритм тренування ОВМ будує модель, яка відносить нові зразки до однієї чи іншої категорії, роблячи це неймовірнісним бінарним лінійним класифікатором. Модель ОВМ є представленням зразків як точок у просторі, відображених таким чином, що зразки з окремих категорій розділено чистою прогалиною, яка є щонайширшою. Нові зразки тоді відо, яка є щонайширшою. Нові зразки тоді відо , Maszyna wektorów nośnych, maszyna wektorówMaszyna wektorów nośnych, maszyna wektorów wspierających, maszyna wektorów podpierających – abstrakcyjny koncept maszyny, która działa jak klasyfikator, a której nauka ma na celu wyznaczenie hiperpłaszczyzny rozdzielającej z maksymalnym marginesem przykłady należące do dwóch klas. Często jest stosowana niejawnie w procesie rozpoznawania obrazów. Maszyna wektorów nośnych korzystająca z jądra radialnej funkcji bazowej jest w stanie klasyfikować nierozdzielne liniowo klasy. W przypadku wystąpienia więcej niż jednej klasy maszynę wektorów nośnych zazwyczaj uczy się metodą one-versus-rest.zazwyczaj uczy się metodą one-versus-rest. , En stödvektormaskin (eng. support-vector mEn stödvektormaskin (eng. support-vector machine) är en typ av statistisk klassificerare, närmare bestämt en generaliserad linjär klassificerare. Den linjära formuleringen av algoritmen introducerades av 1963. Metoden kan även användas för regression. Stödvektormaskiner betraktas som robusta och har använts i många praktiska tillämpningar, till exempel för optisk teckenigenkänning samt ett stort antal olika områden inom språkteknologin och även i datorseende. De kan hantera relativt stora träningsmängder och har metoder för att förhindra överanpassning. metoder för att förhindra överanpassning. , 在机器学习中,支援向量机(英語:support vector machine,常简称在机器学习中,支援向量机(英語:support vector machine,常简称為SVM,又名支援向量网络)是在分类与迴歸分析中分析数据的監督式學習模型与相关的学习算法。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法建立一个将新的实例分配给两个类别之一的模型,使其成为非概率线性分类器。SVM模型是将实例表示为空间中的点,这样映射就使得单独类别的实例被尽可能宽的明显的间隔分开。然后,将新的实例映射到同一空间,并基于它们落在间隔的哪一侧来预测所属类别。 除了进行线性分类之外,SVM还可以使用所谓的有效地进行非线性分类,将其输入隐式映射到高维特征空间中。 当数据未被标记时,不能进行监督式学习,需要用非監督式學習,它会尝试找出数据到簇的自然聚类,并将新数据映射到这些已形成的簇。将支援向量机改进的聚类算法被称为支援向量聚类,当数据未被标记或者仅一些数据被标记时,支援向量聚类经常在工业应用中用作分类步骤的预处理。据未被标记或者仅一些数据被标记时,支援向量聚类经常在工业应用中用作分类步骤的预处理。
rdfs:label Метод опорных векторов , Support vector machine , 支持向量机 , Support-vector machine , Euskarri bektoredun makina , サポートベクターマシン , Support vector machines , Support Vector Machine , Maszyna wektorów nośnych , Máquinas de vectores de soporte , شعاع الدعم الآلي , Macchine a vettori di supporto , Метод опорних векторів , Stödvektormaskin , Màquina de vector de suport , Máquina de vetores de suporte , Machine à vecteurs de support , 서포트 벡터 머신
hide properties that link here 
http://dbpedia.org/resource/SVM + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Support-vector_machine + , http://dbpedia.org/resource/Support_Vector_Machines + , http://dbpedia.org/resource/Support_Vector_Machine + , http://dbpedia.org/resource/Support_vector_machines + , http://dbpedia.org/resource/Support_vector_regression + , http://dbpedia.org/resource/Applications_of_support_vector_machines + , http://dbpedia.org/resource/Transductive_Support_Vector_Machine + , http://dbpedia.org/resource/Support_vector_classifier + , http://dbpedia.org/resource/Support_vector_method + , http://dbpedia.org/resource/Svm_%28learning%29 + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/OpenCV + , http://dbpedia.org/resource/Metabolomics + , http://dbpedia.org/resource/Types_of_artificial_neural_networks + , http://dbpedia.org/resource/Internet_of_things + , http://dbpedia.org/resource/Klaus-Robert_M%C3%BCller + , http://dbpedia.org/resource/Sepp_Hochreiter + , http://dbpedia.org/resource/CRM114_%28program%29 + , http://dbpedia.org/resource/Hyperplane + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Skinput + , http://dbpedia.org/resource/Imaging_spectroscopy + , http://dbpedia.org/resource/Random_subspace_method + , http://dbpedia.org/resource/Ridge_regression + , http://dbpedia.org/resource/Multinomial_logistic_regression + , http://dbpedia.org/resource/Linear_predictor_function + , http://dbpedia.org/resource/Scikit-learn + , http://dbpedia.org/resource/Non-negative_matrix_factorization + , http://dbpedia.org/resource/List_of_statistics_articles + , http://dbpedia.org/resource/History_of_artificial_neural_networks + , http://dbpedia.org/resource/String_kernel + , http://dbpedia.org/resource/Forecasting + , http://dbpedia.org/resource/Paris_Kanellakis_Award + , http://dbpedia.org/resource/Quantitative_structure%E2%80%93activity_relationship + , http://dbpedia.org/resource/Sequential_minimal_optimization + , http://dbpedia.org/resource/Support-vector_machine + , http://dbpedia.org/resource/LIBSVM + , http://dbpedia.org/resource/Kernel_perceptron + , http://dbpedia.org/resource/John_Platt_%28computer_scientist%29 + , http://dbpedia.org/resource/Fisher_kernel + , http://dbpedia.org/resource/Histogram_of_oriented_gradients + , http://dbpedia.org/resource/Over-the-shoulder_shot + , http://dbpedia.org/resource/Multilayer_perceptron + , http://dbpedia.org/resource/Hinge_loss + , http://dbpedia.org/resource/Linear_regression + , http://dbpedia.org/resource/List_of_algorithms + , http://dbpedia.org/resource/Relevance_vector_machine + , http://dbpedia.org/resource/Hyperparameter_optimization + , http://dbpedia.org/resource/Rotating_calipers + , http://dbpedia.org/resource/SUMO_protein + , http://dbpedia.org/resource/Ribo_%28robot%29 + , http://dbpedia.org/resource/Protein%E2%80%93DNA_interaction_site_predictor + , http://dbpedia.org/resource/Fusion_adaptive_resonance_theory + , http://dbpedia.org/resource/Binning_%28metagenomics%29 + , http://dbpedia.org/resource/Event_detection_for_WSN + , http://dbpedia.org/resource/In_situ_adaptive_tabulation + , http://dbpedia.org/resource/Matched_molecular_pair_analysis + , http://dbpedia.org/resource/HeuristicLab + , http://dbpedia.org/resource/Radial_basis_function + , http://dbpedia.org/resource/Protein_structure_prediction + , http://dbpedia.org/resource/Pattern_recognition + , http://dbpedia.org/resource/Protein_subcellular_localization_prediction + , http://dbpedia.org/resource/Oracle_Data_Mining + , http://dbpedia.org/resource/NeuroSolutions + , http://dbpedia.org/resource/Extreme_learning_machine + , http://dbpedia.org/resource/Computational_learning_theory + , http://dbpedia.org/resource/Huber_loss + , http://dbpedia.org/resource/International_Aging_Research_Portfolio + , http://dbpedia.org/resource/Timeline_of_algorithms + , http://dbpedia.org/resource/Online_content_analysis + , http://dbpedia.org/resource/List_of_academic_fields + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/Heuristic_%28psychology%29 + , http://dbpedia.org/resource/Quantum_machine_learning + , http://dbpedia.org/resource/Meredith_L._Patterson + , http://dbpedia.org/resource/Multiple_kernel_learning + , http://dbpedia.org/resource/Feature_scaling + , http://dbpedia.org/resource/David_Horn_%28Israeli_physicist%29 + , http://dbpedia.org/resource/Index_of_robotics_articles + , http://dbpedia.org/resource/Medical_image_computing + , http://dbpedia.org/resource/Outline_of_robotics + , http://dbpedia.org/resource/Part-of-speech_tagging + , http://dbpedia.org/resource/Geostatistics + , http://dbpedia.org/resource/Katya_Scheinberg + , http://dbpedia.org/resource/Video_Multimethod_Assessment_Fusion + , http://dbpedia.org/resource/Naive_Bayes_classifier + , http://dbpedia.org/resource/Regularized_least_squares + , http://dbpedia.org/resource/Gelatinous_zooplankton + , http://dbpedia.org/resource/List_of_Russian_Americans + , http://dbpedia.org/resource/Apache_Ignite + , http://dbpedia.org/resource/Biostatistics + , http://dbpedia.org/resource/Electricity_price_forecasting + , http://dbpedia.org/resource/Rita_Cucchiara + , http://dbpedia.org/resource/Online_machine_learning + , http://dbpedia.org/resource/Multimodal_learning + , http://dbpedia.org/resource/L%C3%A9on_Bottou + , http://dbpedia.org/resource/Linear_separability + , http://dbpedia.org/resource/List_of_Russian_IT_developers + , http://dbpedia.org/resource/Supervised_learning + , http://dbpedia.org/resource/Yoonkyung_Lee + , http://dbpedia.org/resource/Weak_supervision + , http://dbpedia.org/resource/Principle_of_maximum_entropy + , http://dbpedia.org/resource/Boosting_%28machine_learning%29 + , http://dbpedia.org/resource/Low-rank_matrix_approximations + , http://dbpedia.org/resource/Shogun_%28toolbox%29 + , http://dbpedia.org/resource/Incremental_learning + , http://dbpedia.org/resource/Corinna_Cortes + , http://dbpedia.org/resource/Chih-Jen_Lin + , http://dbpedia.org/resource/Empirical_risk_minimization + , http://dbpedia.org/resource/Cover%27s_theorem + , http://dbpedia.org/resource/Margin_classifier + , http://dbpedia.org/resource/Text_nailing + , http://dbpedia.org/resource/Polynomial_kernel + , http://dbpedia.org/resource/Radial_basis_function_kernel + , http://dbpedia.org/resource/Implicit_authentication + , http://dbpedia.org/resource/Tree_kernel + , http://dbpedia.org/resource/Ranking_SVM + , http://dbpedia.org/resource/Graph_kernel + , http://dbpedia.org/resource/Bioinformatics_discovery_of_non-coding_RNAs + , http://dbpedia.org/resource/Affective_computing + , http://dbpedia.org/resource/Elastic_net_regularization + , http://dbpedia.org/resource/Native-language_identification + , http://dbpedia.org/resource/Bag-of-words_model_in_computer_vision + , http://dbpedia.org/resource/SVC + , http://dbpedia.org/resource/SVM + , http://dbpedia.org/resource/LPBoost + , http://dbpedia.org/resource/Binary_classification + , http://dbpedia.org/resource/Coordinate_descent + , http://dbpedia.org/resource/Surrogate_model + , http://dbpedia.org/resource/Space_mapping + , http://dbpedia.org/resource/Word-sense_disambiguation + , http://dbpedia.org/resource/Quadratic_classifier + , http://dbpedia.org/resource/Linear_classifier + , http://dbpedia.org/resource/Probabilistic_classification + , http://dbpedia.org/resource/Algorithmic_inference + , http://dbpedia.org/resource/Kernel_embedding_of_distributions + , http://dbpedia.org/resource/StatSoft + , http://dbpedia.org/resource/Ordinal_regression + , http://dbpedia.org/resource/Solar_power_forecasting + , http://dbpedia.org/resource/Dispersive_flies_optimisation + , http://dbpedia.org/resource/Support_Vector_Machines + , http://dbpedia.org/resource/Artificial_intelligence + , http://dbpedia.org/resource/Nonparametric_statistics + , http://dbpedia.org/resource/Stochastic_gradient_descent + , http://dbpedia.org/resource/Time_series + , http://dbpedia.org/resource/Receiver_Operating_Characteristic_Curve_Explorer_and_Tester + , http://dbpedia.org/resource/Multimedia_information_retrieval + , http://dbpedia.org/resource/Adversarial_machine_learning + , http://dbpedia.org/resource/Outline_of_artificial_intelligence + , http://dbpedia.org/resource/Local_binary_patterns + , http://dbpedia.org/resource/Object_detection + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Scene_text + , http://dbpedia.org/resource/N-gram + , http://dbpedia.org/resource/Merative + , http://dbpedia.org/resource/Protein_secondary_structure + , http://dbpedia.org/resource/Neural_network + , http://dbpedia.org/resource/Vertica + , http://dbpedia.org/resource/National_University_of_Uzbekistan + , http://dbpedia.org/resource/Decision_boundary + , http://dbpedia.org/resource/Sentiment_analysis + , http://dbpedia.org/resource/Confabulation_%28neural_networks%29 + , http://dbpedia.org/resource/Computer-aided_diagnosis + , http://dbpedia.org/resource/Isoelectric_point + , http://dbpedia.org/resource/Functional_genomics + , http://dbpedia.org/resource/Logic_learning_machine + , http://dbpedia.org/resource/PHOSIDA + , http://dbpedia.org/resource/Support_Vector_Machine + , http://dbpedia.org/resource/Elastic_map + , http://dbpedia.org/resource/Product_finder + , http://dbpedia.org/resource/Bayesian_interpretation_of_kernel_regularization + , http://dbpedia.org/resource/Integral_channel_feature + , http://dbpedia.org/resource/SVR + , http://dbpedia.org/resource/Support_vector_machines + , http://dbpedia.org/resource/Support_vector_regression + , http://dbpedia.org/resource/Applications_of_support_vector_machines + , http://dbpedia.org/resource/Transductive_Support_Vector_Machine + , http://dbpedia.org/resource/Support_vector_classifier + , http://dbpedia.org/resource/Support_vector_method + , http://dbpedia.org/resource/Svm_%28learning%29 + , http://dbpedia.org/resource/Svm_%28machine_learning%29 + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Support_vector_machine + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Support_vector_machine + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.