Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Loss functions for classification
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Loss_functions_for_classification
http://dbpedia.org/ontology/abstract 在機器學習和最佳化領域中,分類問題之損失函數可以用來表達預測不準確之程度,其中分類問在機器學習和最佳化領域中,分類問題之損失函數可以用來表達預測不準確之程度,其中分類問題主要是用來判斷所偵測到的物件屬於什麼類別。將一個向量空間做為所有的輸入值,而向量空間做為所有的輸出值。我们希望能夠找到最佳的公式將映射到。然而,由于信息不完整、雜訊、计算過程中的非确定性模块等因素,有可能會有相同的輸入值映射到不同的輸出值。因此,這個學習過程的目的就是要最小化預期風險(更详细的介绍参见统计学习理论),預期風險之定義為: 其中即損失函數,而為機率密度函數。而實作上概率分布通常是未知的,因此我们使用由数据样本空间中取出的個獨立且同分布(i.i.d.)的樣本點 作为训练集,將樣本空間所得到的经验風險做為預期風險的替代,其定義為: 基於分類問題的二元性,可定義0-1函數做為匹配值之基準。因此損失函數為: 其中為步階函數。然而損失函數並不是凸函數或平滑函數,是一種NP-hard的問題,因此做為替代,需要使用可以追蹤的機器學習演算法(透過凸損失函數)。-hard的問題,因此做為替代,需要使用可以追蹤的機器學習演算法(透過凸損失函數)。 , In machine learning and mathematical optimIn machine learning and mathematical optimization, loss functions for classification are computationally feasible loss functions representing the price paid for inaccuracy of predictions in classification problems (problems of identifying which category a particular observation belongs to). Given as the space of all possible inputs (usually ), and as the set of labels (possible outputs), a typical goal of classification algorithms is to find a function which best predicts a label for a given input . However, because of incomplete information, noise in the measurement, or probabilistic components in the underlying process, it is possible for the same to generate different . As a result, the goal of the learning problem is to minimize expected loss (also known as the risk), defined as where is a given loss function, and is the probability density function of the process that generated the data, which can equivalently be written as Within classification, several commonly used loss functions are written solely in terms of the product of the true label and the predicted label . Therefore, they can be defined as functions of only one variable , so that with a suitably chosen function . These are called margin-based loss functions. Choosing a margin-based loss function amounts to choosing . Selection of a loss function within this framework impacts the optimal which minimizes the expected risk. In the case of binary classification, it is possible to simplify the calculation of expected risk from the integral specified above. Specifically, The second equality follows from the properties described above. The third equality follows from the fact that 1 and −1 are the only possible values for , and the fourth because . The term within brackets is known as the conditional risk. One can solve for the minimizer of by taking the functional derivative of the last equality with respect to and setting the derivative equal to 0. This will result in the following equation which is also equivalent to setting the derivative of the conditional risk equal to zero. Given the binary nature of classification, a natural selection for a loss function (assuming equal cost for false positives and false negatives) would be the 0-1 loss function (0–1 indicator function), which takes the value of 0 if the predicted classification equals that of the true class or a 1 if the predicted classification does not match the true class. This selection is modeled by where indicates the Heaviside step function.However, this loss function is non-convex and non-smooth, and solving for the optimal solution is an NP-hard combinatorial optimization problem. As a result, it is better to substitute loss function surrogates which are tractable for commonly used learning algorithms, as they have convenient properties such as being convex and smooth. In addition to their computational tractability, one can show that the solutions to the learning problem using these loss surrogates allow for the recovery of the actual solution to the original classification problem. Some of these surrogates are described below. In practice, the probability distribution is unknown. Consequently, utilizing a training set of independently and identically distributed sample points drawn from the data sample space, one seeks to minimize empirical risk as a proxy for expected risk. (See statistical learning theory for a more detailed description.)g theory for a more detailed description.) , У машинному навчанні та математичній оптимУ машинному навчанні та математичній оптимізації функції втрат для класифікації є обчислювальними функціями втрат, що представляють ціну, сплачену за неточність прогнозів у задачах класифікації (потрібно ідентифікувати до якої категорії належить конкретне спостереження). Дано як простір усіх можливих вхідних даних (зазвичай ), і як набір міток (можливих вихідних даних), типовою метою алгоритмів класифікації є пошук функції , яка найкраще прогнозує значення мітки для заданого входу . Однак, через неповну інформацію, наявність шуму під час вимірювання, або ймовірнісні складові процесу, який досліджується, можливо для одного і того ж самого мати, як передбачення, різні . В результаті, метою навчання є мінімізація очікуваних втрат (також відомих як ризик), визначених як де — задана функція втрат і — функція густини ймовірності процесу, яка генерує дані. Еквівалентно цю функцію можна записати як У рамках класифікації часто використовують функції втрат, трактовані виключно в термінах добутку справжньої мітки на передбачену мітку . Отже, їх можна визначити як функцію лише однієї змінної , таким чином з правильно обраною функцією . Вони називаються функціями втрат на основі маржі (margin-based loss functions). Вибір функції втрат на основі маржі прирівнюється до вибору . Обрання функції втрат у цій структурі впливає на оптимальну , яка мінімізує очікуваний ризик. У разі бінарної класифікації можна спростити розрахунок очікуваного ризику за допомогою зазначеного вище інтегралу. Зокрема, Друга рівність випливає з описаних вище властивостей. Третя рівність випливає з того факту, що 1 і −1 є єдино можливими значеннями для , а четверте — за рахунок Вираз у дужках відомий як очікуваний ризик. Для мінімізатора можна вирішити проблему, взявши функціональну похідну від останньої рівності відносно , при цьому встановити похідну рівною 0. Це призведе до рівняння що також є еквівалентним встановленню похідної від умовного ризику рівною нулю. Враховуючи бінарну природу класифікації, природним відбором для функції втрат (припускаючи однакову вартість хибно позитивного та хибно негативного) буде функція втрат 0-1 (характеристична функція 0–1). Вона приймає значення 0, якщо прогнозована класифікація дорівнює класифікації істинного класу або 1, якщо прогнозована класифікація не відповідає істинному класу. Цей вибір моделюється за формулою де позначає ступінчасту функцію Гевісайда. Однак, ця функція втрат є неопуклою і негладкою, і пошук оптимального рішення є NP-складною комбінаторною задачею оптимізації. Як результат, краще розглянути сурогатні функції втрат, які підходять для часто вживаних алгоритмів навчання, оскільки вони мають і опуклі, і гладкі властивості. На додаток до їх обчислювальної керованості, можна показати, що вирішення проблеми навчання з використанням цих сурогатних функцій втрат дозволяють відновити фактичне вирішення вихідної проблеми класифікації. Деякі з цих сурогатів описані нижче. На практиці, розподіл ймовірностей є невідомим. Отже, використовуючи навчальний набір з незалежних та однаково розподілених точок вибірки взятих з простору елементарних подій, ми прагнемо мінімізувати емпіричний ризик як непрямий показник очікуваного ризику. (Див. статистичну теорію навчання для більш детального опису.)орію навчання для більш детального опису.)
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/BayesConsistentLosses2.jpg?width=300 +
http://dbpedia.org/ontology/wikiPageID 44578554
http://dbpedia.org/ontology/wikiPageLength 23451
http://dbpedia.org/ontology/wikiPageRevisionID 1117007901
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Statistical_classification + , http://dbpedia.org/resource/False_positives_and_false_negatives + , http://dbpedia.org/resource/Heaviside_step_function + , http://dbpedia.org/resource/AdaBoost + , http://dbpedia.org/resource/Quadratic_programming + , http://dbpedia.org/resource/Sample_space + , http://dbpedia.org/resource/Tikhonov_regularization + , http://dbpedia.org/resource/Differentiable_programming + , http://dbpedia.org/resource/Statistical_learning_theory + , http://dbpedia.org/resource/Subgradient_method + , http://dbpedia.org/resource/File:BayesConsistentLosses2.jpg + , http://dbpedia.org/resource/Empirical_risk_minimization + , http://dbpedia.org/resource/File:LogitLossMarginWithMu.jpg + , http://dbpedia.org/resource/Iid + , http://dbpedia.org/resource/NP-hard + , http://dbpedia.org/resource/Cross-validation_%28statistics%29 + , http://dbpedia.org/resource/Bayes%27_theorem + , http://dbpedia.org/resource/Kullback%E2%80%93Leibler_divergence + , http://dbpedia.org/resource/Positive_part + , http://dbpedia.org/resource/LogitBoost + , http://dbpedia.org/resource/Loss_functions + , http://dbpedia.org/resource/Category:Machine_learning_algorithms + , http://dbpedia.org/resource/Indicator_function + , http://dbpedia.org/resource/Gradient_boosting + , http://dbpedia.org/resource/Deep_learning + , http://dbpedia.org/resource/Probability_density_function + , http://dbpedia.org/resource/Cross_entropy + , http://dbpedia.org/resource/0-1_loss_function + , http://dbpedia.org/resource/Mathematical_optimization + , http://dbpedia.org/resource/Support_vector_machines + , http://dbpedia.org/resource/Gradient_descent + , http://dbpedia.org/resource/Stochastic_gradient_descent + , http://dbpedia.org/resource/Machine_learning +
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:Machine_learning + , http://dbpedia.org/resource/Template:Differentiable_computing + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Main +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Machine_learning_algorithms +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Loss_functions_for_classification?oldid=1117007901&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/BayesConsistentLosses2.jpg + , http://commons.wikimedia.org/wiki/Special:FilePath/LogitLossMarginWithMu.jpg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Loss_functions_for_classification +
owl:sameAs http://uk.dbpedia.org/resource/%D0%A4%D1%83%D0%BD%D0%BA%D1%86%D1%96%D1%97_%D0%B2%D1%82%D1%80%D0%B0%D1%82_%D0%B4%D0%BB%D1%8F_%D0%BA%D0%BB%D0%B0%D1%81%D0%B8%D1%84%D1%96%D0%BA%D0%B0%D1%86%D1%96%D1%97 + , https://global.dbpedia.org/id/2MM8a + , http://www.wikidata.org/entity/Q25048582 + , http://ca.dbpedia.org/resource/Funcions_de_p%C3%A8rdua_per_a_la_classificaci%C3%B3 + , http://zh.dbpedia.org/resource/%E5%88%86%E9%A1%9E%E5%95%8F%E9%A1%8C%E4%B9%8B%E6%90%8D%E5%A4%B1%E5%87%BD%E6%95%B8 + , http://rdf.freebase.com/ns/m.012sn4sc + , http://dbpedia.org/resource/Loss_functions_for_classification + , http://sr.dbpedia.org/resource/%D0%A4%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D1%98%D0%B5_%D0%B3%D1%83%D0%B1%D0%B8%D1%82%D0%B0%D0%BA%D0%B0_%D0%B7%D0%B0_%D0%BA%D0%BB%D0%B0%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D1%98%D1%83 +
rdfs:comment In machine learning and mathematical optimIn machine learning and mathematical optimization, loss functions for classification are computationally feasible loss functions representing the price paid for inaccuracy of predictions in classification problems (problems of identifying which category a particular observation belongs to). Given as the space of all possible inputs (usually ), and as the set of labels (possible outputs), a typical goal of classification algorithms is to find a function which best predicts a label for a given input . However, because of incomplete information, noise in the measurement, or probabilistic components in the underlying process, it is possible for the same to generate different . As a result, the goal of the learning problem is to minimize expected loss (also known as the risk), defined as loss (also known as the risk), defined as , 在機器學習和最佳化領域中,分類問題之損失函數可以用來表達預測不準確之程度,其中分類問在機器學習和最佳化領域中,分類問題之損失函數可以用來表達預測不準確之程度,其中分類問題主要是用來判斷所偵測到的物件屬於什麼類別。將一個向量空間做為所有的輸入值,而向量空間做為所有的輸出值。我们希望能夠找到最佳的公式將映射到。然而,由于信息不完整、雜訊、计算過程中的非确定性模块等因素,有可能會有相同的輸入值映射到不同的輸出值。因此,這個學習過程的目的就是要最小化預期風險(更详细的介绍参见统计学习理论),預期風險之定義為: 其中即損失函數,而為機率密度函數。而實作上概率分布通常是未知的,因此我们使用由数据样本空间中取出的個獨立且同分布(i.i.d.)的樣本點 作为训练集,將樣本空間所得到的经验風險做為預期風險的替代,其定義為: 基於分類問題的二元性,可定義0-1函數做為匹配值之基準。因此損失函數為: 其中為步階函數。然而損失函數並不是凸函數或平滑函數,是一種NP-hard的問題,因此做為替代,需要使用可以追蹤的機器學習演算法(透過凸損失函數)。-hard的問題,因此做為替代,需要使用可以追蹤的機器學習演算法(透過凸損失函數)。 , У машинному навчанні та математичній оптимУ машинному навчанні та математичній оптимізації функції втрат для класифікації є обчислювальними функціями втрат, що представляють ціну, сплачену за неточність прогнозів у задачах класифікації (потрібно ідентифікувати до якої категорії належить конкретне спостереження). де — задана функція втрат і — функція густини ймовірності процесу, яка генерує дані. Еквівалентно цю функцію можна записати як У разі бінарної класифікації можна спростити розрахунок очікуваного ризику за допомогою зазначеного вище інтегралу. Зокрема,могою зазначеного вище інтегралу. Зокрема,
rdfs:label Функції втрат для класифікації , 分類問題之損失函數 , Loss functions for classification , Funcions de pèrdua per a la classificació
hide properties that link here 
http://dbpedia.org/resource/Support_vector_machine + , http://dbpedia.org/resource/Regularization_%28mathematics%29 + , http://dbpedia.org/resource/Loss_function + , http://dbpedia.org/resource/LogitBoost + , http://dbpedia.org/resource/Boosting_%28machine_learning%29 + , http://dbpedia.org/resource/Shrinkage_Fields_%28image_restoration%29 + , http://dbpedia.org/resource/Triplet_loss + , http://dbpedia.org/resource/AdaBoost + , http://dbpedia.org/resource/Classification_rule + , http://dbpedia.org/resource/Mean_absolute_error + , http://dbpedia.org/resource/Adversarial_machine_learning + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Logistic_loss + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Loss_functions_for_classification + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Loss_functions_for_classification + owl:sameAs
 

 

Enter the name of the page to start semantic browsing from.