Browse Wiki & Semantic Web

Jump to: navigation, search
Http://dbpedia.org/resource/Principal component analysis
  This page has no properties.
hide properties that link here 
  No properties link to this page.
 
http://dbpedia.org/resource/Principal_component_analysis
http://dbpedia.org/ontology/abstract 主成分分析(しゅせいぶんぶんせき、英: principal component an主成分分析(しゅせいぶんぶんせき、英: principal component analysis; PCA)は、相関のある多数の変数から相関のない少数で全体のばらつきを最もよく表すと呼ばれる変数を合成する多変量解析の一手法。データの次元を削減するために用いられる。 主成分を与える変換は、第一主成分の分散を最大化し、続く主成分はそれまでに決定した主成分と直交するというの下で分散を最大化するようにして選ばれる。主成分の分散を最大化することは、観測値の変化に対する説明能力を可能な限り主成分に持たせる目的で行われる。選ばれた主成分は互いに直交し、与えられた観測値のセットを線型結合として表すことができる。言い換えると、主成分は観測値のセットの直交基底となっている。主成分ベクトルの直交性は、主成分ベクトルが共分散行列(あるいは相関行列)の固有ベクトルになっており、共分散行列が実対称行列であることから導かれる。 主成分分析は純粋に固有ベクトルに基づく多変量解析の中で最も単純なものである。主成分分析は、データの分散をより良く説明するという観点から、そのデータの内部構造を明らかにするものだと考えられる。多くの場合、多変量データは次元が大きく、各変数を軸にとって視覚化することは難しいが、主成分分析によって情報をより少ない次元に集約することでデータを視覚化できる。集約によって得られる情報は、データセットを元のデータ変数の空間から主成分ベクトルのなす空間へ射影したものであり、元のデータから有用な情報を抜き出したものになっている。主成分分析によるデータ構造の可視化は、可視化に必要なだけ先頭から少数の主成分を選択することで実現される。 主成分分析は探索的データ解析における主要な道具であり、にも使われる。主成分分析は観測値の共分散行列やに対する固有値分解、あるいは(大抵は正規化された)データ行列の特異値分解によって行われる。主成分分析の結果は主成分得点(因子得点、英: score)と主成分負荷量(因子負荷量、英: loadings)によって評価される。主成分得点とは、あるデータ点を主成分ベクトルで表現した場合の基底ベクトルにかかる係数であり、ある主成分ベクトルのデータ点に対する寄与の大きさを示す。主成分負荷量はある主成分得点に対する個々の(正規化された)観測値の重みであり、観測値と主成分の相関係数として与えられる。主成分分析は観測値の間の相対的なスケールに対して敏感である。 主成分分析による評価は主成分得点と主成分負荷量をそれぞれ可視化した主成分プロット、あるいは両者を重ね合わせたバイプロットを通して解釈される。主成分分析を実行するためのソフトウェアや関数によって、観測値の基準化の方法や数値計算のアルゴリズムに細かな差異が存在し、個々の方法は必ずしも互いに等価であるとは限らない(例えば、R言語における prcomp 関数と の PCA 関数の結果は異なる)。い(例えば、R言語における prcomp 関数と の PCA 関数の結果は異なる)。 , A Análise de Componentes Principais (ACP) A Análise de Componentes Principais (ACP) ou Principal Component Analysis (PCA) é um procedimento matemático que utiliza uma (ortogonalização de vetores) para converter um conjunto de observações de variáveis possivelmente correlacionadas num conjunto de valores de variáveis chamadas de componentes principais. O número de componentes principais é sempre menor ou igual ao número de variáveis originais. Os componentes principais são garantidamente independentes apenas se os dados forem normalmente distribuídos (conjuntamente). O PCA é sensível à escala relativa das variáveis originais. Dependendo da área de aplicação, o PCA é também conhecido como transformada de Karhunen-Loève (KLT) discreta, transformada de Hotelling ou decomposição ortogonal própria (POD). O PCA foi inventado em 1901 por Karl Pearson. Agora, é mais comumente usado como uma ferramenta de Análise Exploratória de Dados e para fazer . PCA pode ser feito por (Valores Próprios) de uma matriz covariância, geralmente depois de centralizar (e normalizar ou usar pontuações-Z) a matriz de dados para cada atributo. Os resultados de PCA são geralmente discutidos em termos pontuações (scores) de componentes, também chamados de pontuações de fatores (os valores de variável transformados correspondem a um ponto de dado particular), e carregamentos (loadings), i.e., o peso pelo qual cada variável normalizada original deve ser multiplicada para se obter a pontuação de componente. O PCA é a mais simples das verdadeiras análises multivariadas por autovetores (Vetores Próprios). Com frequência, sua operação pode ser tomada como sendo reveladora da estrutura interna dos dados, de uma forma que melhor explica a variância nos dados. Se visualizarmos um conjunto de dados multivariados em um espaço de alta dimensão, com 1 eixo por variável, o PCA pode ser usado para fornecer uma visualização em dimensões mais baixas dos mesmos dados, uma verdadeira "sombra" do objeto original quando visto de seu ponto mais informativo. Isto é feito usando-se apenas os primeiros componentes principais, de forma que a dimensionalidade dos dados transformados é reduzida. O PCA é fortemente ligado à análise fatorial (Factorial Analysis); de fato, alguns pacotes estatísticos propositadamente confluem as técnicas. A verdadeira análise de fatores faz suposições diferentes sobre a estrutura subjacente dos dados e encontra os autovetores de uma matriz levemente diferente.vetores de uma matriz levemente diferente. , Analýza hlavních komponent (Principal CompAnalýza hlavních komponent (Principal Component Analysis, PCA) je v teorii signálu transformace sloužící k dekorelaci dat. Často se používá ke snížení dimenze dat s co nejmenší ztrátou informace. PCA je možno najít také jako Karhunen-Loèveho transformaci, Hotellingovu transformaci, nebo jako singulární rozklad (SVD; v lineární algebře). Z následujícího vzorce je vidět, že PCA je jen přepsáním vstupu do jiné souřadné soustavy: kde X je centrovaná matice n x d se vstupními d-rozměrnými daty v n řádcích, Y obdobná matice výstupních dat,P je d x d matice vlastních vektorů kovarianční matice splňující vztah , kde je diagonální matice obsahující na diagonále vlastní čísla a matice vlastních vektorů je ortonormální, tj. , kde je jednotková matice dimenze . Vlastní vektory (sloupce matice P) tvoří onu novou souřadnou soustavu.Centrování matice X dosáhneme odečtením příslušného výběrového průměru od každého sloupce.ého výběrového průměru od každého sloupce. , تحليل العنصر الرئيسي أو التحليل عبر المركبتحليل العنصر الرئيسي أو التحليل عبر المركبات الرئيسية (بالإنجليزية: Principal component analysis)‏ هي عملية رياضيّة تنتمي إلى شعبة تحليل البيانات، و التي تتمثل في تحويل عدد من المتغيرات المترابطة إلى عدد أقل من المتغيرات غير المترابطة. المتغيرات الناتجة عن عملية التحويل تسمى بالمركبات (أو المكونات أو المحاور) الرئيسية. القيمة المضافة للعملية هي تسهيل تأويل المعطيات المعقدة، عبر تمكين الباحث والإحصائي من تحقيق أمثل توافق بين التقليل من عدد المتغيرات الواصفة للمعطيات، و فقدان المعلومة الأصلية (التباين) الناتج عن اختزال الأبعاد الأصلية.التباين) الناتج عن اختزال الأبعاد الأصلية. , 주성분 분석(主成分分析, Principal component analysis주성분 분석(主成分分析, Principal component analysis; PCA)은 고차원의 데이터를 저차원의 데이터로 환원시키는 기법을 말한다. 이 때 서로 연관 가능성이 있는 고차원 공간의 표본들을 선형 연관성이 없는 저차원 공간(주성분)의 표본으로 변환하기 위해 을 사용한다. 데이터를 한개의 축으로 사상시켰을 때 그 분산이 가장 커지는 축을 첫 번째 주성분, 두 번째로 커지는 축을 두 번째 주성분으로 놓이도록 새로운 좌표계로 데이터를 선형 변환한다. 이와 같이 표본의 차이를 가장 잘 나타내는 성분들로 분해함으로써 데이터 분석에 여러 가지 이점을 제공한다. 이 변환은 첫째 주성분이 가장 큰 분산을 가지고, 이후의 주성분들은 이전의 주성분들과 직교한다는 제약 아래에 가장 큰 분산을 갖고 있다는 식으로 정의되어있다. 중요한 성분들은 의 고유 벡터이기 때문에 직교하게 된다. 주성분 분석은 신호처리 분야에서는 이산 카루넨-뢰브 변환, 다변량 품질 관리에서는 호텔링 변환, 기계공학에서는 적합 직교 분해(POD), 선형대수학에서는 특잇값 분해 또는 고윳값 분해, 인자 분석:Chapter 7, 심리측정학의 Eckart–Young 이론 (Harman, 1960) 또는 Schmidt–Mirsky 이론, 기상 과학의 실증 직교 함수(EOF), 소음과 진동의 실증적 고유 함수 분해(Sirovich, 1987)와 실증적 요소 분석(Lorenz, 1956), 준조화모드(Brooks et al., 1988), 스펙트럼 분해, 구조 동역학의 실증적 모델 분석 등으로 응용된다. 주성분 분석은 실제 고유 벡터 기반의 다변량 분석들 중 가장 간단한 방식이다. 만약 다변량 데이터 집합이 변수당 1개의 축이 있는 높은 차원의에서 보았을 때 단순히 좌표의 집합으로 보인다면, 주성분 분석은 이를 낮은 차원으로 끌어내려 일종의 그림자를 보고 분석할 수 있게 도와준다. 이는 가장 주요한 일부 요소들을 보여줌으로써 변환된 데이터의 차원수를 줄임으로써 끝난다. 주성분 분석은 인자 분석과 밀접한 관계를 갖고 있다. 인자 분석은 일반적으로 기저 구조에 대한 영역 한정적인 가정을 포함하고, 약간의 차이가 있는 행렬의 고유 벡터를 풀어낸다. 또한 주성분 분석은 정준상관분석(CCA)과도 관계가 있다. 주성분 분석이 하나의 데이터 집합의 변화를 제일 잘 설명하는 새로운 직교 좌표 시스템을 정의하는 반면 정준상관분석은 두 개의 데이터 집합간의 교차 공분산을 가장 잘 설명하는 좌표 시스템을 정의한다. 주성분 분석은 가장 큰 분산을 갖는 부분공간을 보존하는 최적의 선형 변환이라는 특징을 갖는다. 그러나 이산 코사인 변환과 같은 다른 방법에 비해 더 많은 계산시간을 요구하는 단점이 있다. 다른 선형 변환과 달리 주성분 분석은 정해진 기저 벡터를 갖지 않으며, 기저 벡터는 데이터의 특성에 따라 달라진다.해진 기저 벡터를 갖지 않으며, 기저 벡터는 데이터의 특성에 따라 달라진다. , Principal component analysis (PCA) is a poPrincipal component analysis (PCA) is a popular technique for analyzing large datasets containing a high number of dimensions/features per observation, increasing the interpretability of data while preserving the maximum amount of information, and enabling the visualization of multidimensional data. Formally, PCA is a statistical technique for reducing the dimensionality of a dataset. This is accomplished by linearly transforming the data into a new coordinate system where (most of) the variation in the data can be described with fewer dimensions than the initial data. Many studies use the first two principal components in order to plot the data in two dimensions and to visually identify clusters of closely related data points. Principal component analysis has applications in many fields such as population genetics, microbiome studies, and atmospheric science. The principal components of a collection of points in a real coordinate space are a sequence of unit vectors, where the -th vector is the direction of a line that best fits the data while being orthogonal to the first vectors. Here, a best-fitting line is defined as one that minimizes the average squared perpendicular distance from the points to the line. These directions constitute an orthonormal basis in which different individual dimensions of the data are linearly uncorrelated. Principal component analysis (PCA) is the process of computing the principal components and using them to perform a change of basis on the data, sometimes using only the first few principal components and ignoring the rest. In data analysis, the first principal component of a set of variables, presumed to be jointly normally distributed, is the derived variable formed as a linear combination of the original variables that explains the most variance. The second principal component explains the most variance in what is left once the effect of the first component is removed, and we may proceed through iterations until all the variance is explained. PCA is most commonly used when many of the variables are highly correlated with each other and it is desirable to reduce their number to an independent set. PCA is used in exploratory data analysis and for making predictive models. It is commonly used for dimensionality reduction by projecting each data point onto only the first few principal components to obtain lower-dimensional data while preserving as much of the data's variation as possible. The first principal component can equivalently be defined as a direction that maximizes the variance of the projected data. The -th principal component can be taken as a direction orthogonal to the first principal components that maximizes the variance of the projected data. For either objective, it can be shown that the principal components are eigenvectors of the data's covariance matrix. Thus, the principal components are often computed by eigendecomposition of the data covariance matrix or singular value decomposition of the data matrix. PCA is the simplest of the true eigenvector-based multivariate analyses and is closely related to factor analysis. Factor analysis typically incorporates more domain specific assumptions about the underlying structure and solves eigenvectors of a slightly different matrix. PCA is also related to canonical correlation analysis (CCA). CCA defines coordinate systems that optimally describe the cross-covariance between two datasets while PCA defines a new orthogonal coordinate system that optimally describes variance in a single dataset. Robust and L1-norm-based variants of standard PCA have also been proposed.s of standard PCA have also been proposed. , L'anàlisi de components principals (ACP, PL'anàlisi de components principals (ACP, PCA en anglès), en estadística, és una tècnica utilitzada per reduir la dimensionalitat d'un conjunt de dades per a poder-les representar gràficament en gràfics de dues o tres dimensions agrupant diverses variables de les dades en factors, o components, compostos per l'agrupació de diverses variables. Intuïtivament, la tècnica serveix per determinar el nombre de factors explicatius d'un conjunt de dades que determinen en major grau la d'aquestes dades. L'ACP és útil per identificar les variables responsables de causar una falla o les variables més afectades per la falla. L'ACP construeix una transformació lineal que escull un nou sistema de coordenades per al conjunt original de dades en el qual, la variància de major mida del conjunt de dades és capturada en el primer eix, primera component principal. La segona variància més gran és el segon eix, segona component principal, i així successivament. Per construir aquesta transformació lineal s'ha de construir, primer, la matriu de covariància o matriu de coeficients de correlació. Degut a la simetria d'aquesta matriu existeix una base completa de vectors propis. La transformació que passa les antigues coordenades a les coordenades de la nova base és la transformació lineal necessària per reduir la dimensionalitat de les dades.er reduir la dimensionalitat de les dades. , Principalkomponentanalys, ofta förkortat PPrincipalkomponentanalys, ofta förkortat PCA av engelskans principal component analysis, är en linjär ortogonal transform som gör att den transformerade datans dimensioner är ortogonala; det vill säga att de är oberoende och inte har någon kovarians (eller korrelation). PCA introducerades 1901 av Karl Pearson. Alternativa namn är transform (KLT), och proper orthogonal decomposition (POD). PCA har likheter med faktoranalys som till skillnad från PCA inte är en ortogonal transform. Typiskt beräknar man PCA på kovariansmatrisen eller korrelationsmatrisen av datan. PCA innebär nu att hitta en linjär transform av data så att kovariansmatrisen blir diagonal, dvs i vilka riktningar data varierar mest. PCA beräknas genom singulärvärdesuppdelning där man beräknar egenvektorerna och dess egenvärden. Egenvektorerna utgör basen för transformerade data, dessa kallas för principalkomponenter eller principalaxlar och utgör de nya dimensionerna; ett nytt koordinatsystem. Detta förfarande kallas även diagonalisering av kovariansmatrisen. Egenvärdena utgör variansen längs med den komponenten. På det här sättet behåller man så mycket som möjligt av variansen i data samtidigt som de nya dimensionerna hålls oberoende. Det betyder att den första komponenten representerar den största oberoende variansen i data. Det är vanligt att man använder PCA för att reducera antalet dimensioner i data. Eftersom komponenterna är valda efter storlek av oberoende varians antar man att man kan behålla mycket av informationen i data genom att använda enbart de komponenter som representerar en stor del av variansen. Man antar ofta att komponenterna som representerar de lägsta nivåerna av varians utgör brus i data. Genom att använda de första komponenterna och exkludera de övriga kan man representera en stor del av variansen i data. Om man antar att informationen av intresse utgörs av varians är detta ett sätt att reducera antalet dimensioner i data. Denna egenskap kan användas för att lättare hitta samband, kompression, visualisering, utforskande analys av data, eller för att underlätta vidare statistisk analys.r att underlätta vidare statistisk analys. , Ме́тод головни́х компоне́нт (МГК, англ. prМе́тод головни́х компоне́нт (МГК, англ. principal component analysis, PCA) — метод факторного аналізу в статистиці, який використовує ортогональне перетворення множини спостережень з можливо пов'язаними змінними (сутностями, кожна з яких набуває різних числових значень) у множину змінних без лінійної кореляції, які називаються головними компонентами. Метод головних компонент — один з основних способів зменшити розмірність даних, втративши найменшу кількість інформації. Винайдений Карлом Пірсоном у та доповнений і розширений Гарольдом Готелінґом в 1933 р. Застосовується в багатьох галузях, зокрема, в економетриці, біоінформатиці, обробці зображень, для стиснення даних, у суспільних науках. Обчислення головних компонент може бути зведене до обчислення сингулярного розкладу матриці даних або до обчислення власних векторів і власних чисел коваріаційної матриці початкових даних. Іноді метод головних компонент називають перетворенням Кархунена — Лоева або перетворенням Хотеллінга (англ. Hotelling transform).ям Хотеллінга (англ. Hotelling transform). , En estadística, el análisis de componentesEn estadística, el análisis de componentes principales (en español ACP, en inglés, PCA) es una técnica utilizada para describir un conjunto de datos en términos de nuevas variables («componentes») no correlacionadas. Los componentes se ordenan por la cantidad de varianza original que describen, por lo que la técnica es útil para reducir la dimensionalidad de un conjunto de datos. Técnicamente, el ACP busca la proyección según la cual los datos queden mejor representados en términos de mínimos cuadrados. Esta convierte un conjunto de observaciones de variables posiblemente correlacionadas en un conjunto de valores de variables sin correlación lineal llamadas componentes principales. El ACP se emplea sobre todo en análisis exploratorio de datos y para construir modelos predictivos. El ACP comporta el cálculo de la descomposición en autovalores de la matriz de covarianza, normalmente tras centrar los datos en la media de cada atributo. Debe diferenciarse del análisis factorial con el que tiene similitudes formales y en el cual puede ser utilizado como un método de aproximación para la extracción de factores.roximación para la extracción de factores. , 在多元统计分析中,主成分分析(英語:Principal components ana在多元统计分析中,主成分分析(英語:Principal components analysis,PCA)是一種统计分析、簡化數據集的方法。它利用正交变换来对一系列可能相关的变量的观测值进行线性变换,从而投影为一系列线性不相关变量的值,这些不相关变量称为主成分(Principal Components)。具体地,主成分可以看做一个线性方程,其包含一系列线性系数来指示投影方向。PCA对原始数据的正则化或预处理敏感(相对缩放)。 基本思想: * 将坐标轴中心移到数据的中心,然后旋转坐标轴,使得数据在C1轴上的方差最大,即全部n个数据个体在该方向上的投影最为分散。意味着更多的信息被保留下来。C1成为第一主成分。 * C2第二主成分:找一个C2,使得C2与C1的协方差(相关系数)为0,以免与C1信息重叠,并且使数据在该方向的方差尽量最大。 * 以此类推,找到第三主成分,第四主成分……第p个主成分。p个随机变量可以有p个主成分。 主成分分析经常用于减少数据集的维数,同时保留数据集當中对方差贡献最大的特征。这是通过保留低維主成分,忽略高維主成分做到的。这样低維成分往往能够保留住数据的最重要部分。但是,这也不是一定的,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大。 主成分分析由卡尔·皮尔逊於1901年發明,用於分析數據及建立數理模型,在原理上与相似。之后在1930年左右由哈罗德·霍特林独立发展并命名。依据应用领域的不同,在信号处理中它也叫做离散K-L 转换(discrete Karhunen–Loève transform (KLT))。其方法主要是通過對共變異數矩陣進行特征分解,以得出數據的主成分(即特征向量)與它們的權值(即特征值)。PCA是最簡單的以特征量分析多元統計分布的方法。其結果可以理解為對原數據中的方差做出解釋:哪一個方向上的數據值對方差的影響最大?換而言之,PCA提供了一種降低數據維度的有效辦法;如果分析者在原數據中除掉最小的特征值所對應的成分,那麼所得的低維度數據必定是最優化的(也即,這樣降低維度必定是失去訊息最少的方法)。主成分分析在分析複雜數據時尤為有用,比如人臉識別。 PCA是最简单的以特征量分析多元统计分布的方法。通常,这种运算可以被看作是揭露数据的内部结构,從而更好地展現数据的變異度。如果一个多元数据集是用高维数据空间之坐标系來表示的,那么PCA能提供一幅较低维度的图像,相當於数据集在讯息量最多之角度上的一個投影。这样就可以利用少量的主成分讓数据的维度降低了。 PCA 跟因子分析密切相关。因子分析通常包含更多特定領域底層結構的假設,並且求解稍微不同矩陣的特徵向量。 PCA 也跟典型相關分析(CCA)有關。CCA定義的坐標系可以最佳地描述兩個數據集之間的互協方差,而PCA定義了新的正交坐標系,能最佳地描述單個數據集當中的變異數。集之間的互協方差,而PCA定義了新的正交坐標系,能最佳地描述單個數據集當中的變異數。 , Метод главных компонент (англ. principal cМетод главных компонент (англ. principal component analysis, PCA) — один из основных способов уменьшить размерность данных, потеряв наименьшее количество информации. Изобретён Карлом Пирсоном в 1901 году. Применяется во многих областях, в том числе в эконометрике, биоинформатике, обработке изображений, для сжатия данных, в общественных науках. Вычисление главных компонент может быть сведено к вычислению сингулярного разложения матрицы данных или к вычислению собственных векторов и собственных значений ковариационной матрицы исходных данных. Иногда метод главных компонент называют преобразованием Кархунена — Лоэва или преобразованием Хотеллинга (англ. Hotelling transform).ем Хотеллинга (англ. Hotelling transform). , L'analyse en composantes principales (ACP L'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux. Elle permet au statisticien de résumer l'information en réduisant le nombre de variables. Il s'agit d'une approche à la fois géométrique (les variables étant représentées dans un nouvel espace, selon des directions d'inertie maximale) et statistique (la recherche portant sur des axes indépendants expliquant au mieux la variabilité — la variance — des données). Lorsqu'on veut compresser un ensemble de variables aléatoires, les premiers axes de l'analyse en composantes principales sont un meilleur choix, du point de vue de l'inertie ou de la variance. L'outil mathématique est appliqué dans d'autres domaines que les statistiques et est parfois appelé décomposition orthogonale aux valeurs propres ou POD (anglais : proper orthogonal decomposition).nglais : proper orthogonal decomposition). , Dalam statistika, analisis komponen utama Dalam statistika, analisis komponen utama (disingkat AKU; bahasa Inggris: principal component analysis/PCA) adalah teknik yang digunakan untuk menyederhanakan suatu data, dengan cara mentransformasi data secara linier sehingga terbentuk sistem koordinat baru dengan varians maksimum. Analisis komponen utama dapat digunakan untuk mereduksi dimensi suatu data tanpa mengurangi karakteristik data tersebut secara signifikan. Analisis komponen utama juga sering digunakan untuk menghindari masalah multikolinearitas antar peubah bebas dalam model regresi berganda. Analisis komponen utama merupakan analisis antara dari suatu proses penelitian yang besar atau suatu awalan dari analisis berikutnya, bukan merupakan suatu analisis yang langsung berakhir. Misalnya komponen utama bisa merupakan masukan untuk regresi berganda atau analisis faktor atau . AKU juga dikenal dengan Transformasi Karhunen-Loève (dinamakan untuk menghormati dan ) atau Transformasi Hotelling (dinamakan untuk menghormati ). Analisis komponen utama juga merupakan salah satu teknik statistika multivariat yang dapat menemukan karakteristik data yang tersembunyi. Dalam penerapannya, Analisis komponen utama, justru dibatasi oleh asumsi-asumsinya, yaitu asumsi kelinearan model regresi, asumsi keorthogonalan komponen utama, dan asumsi varians yang besar memiliki struktur yang penting. Secara keseluruhan, metode Analisis komponen utama tampaknya hanya mempunyai penerapan yang sempit dalam ilmu-ilmu fisis, kerekayasaan, dan biologis. Kadang-kadang, dalam ilmu-ilmu pengetahuan sosial, metode analisis komponen utama bermanfaat untuk mencari peubah kombinasi yang efektif.tuk mencari peubah kombinasi yang efektif. , Analiza głównych składowych (ang. principaAnaliza głównych składowych (ang. principal component analysis, PCA) – jedna ze statystycznych metod analizy czynnikowej. Zbiór danych składający się z N obserwacji, z których każda obejmuje K zmiennych, można interpretować jako chmurę N punktów w przestrzeni K-wymiarowej. Celem PCA jest taki obrót układu współrzędnych, aby maksymalizować w pierwszej kolejności wariancję pierwszej współrzędnej, następnie wariancję drugiej współrzędnej itd.. Tak przekształcone wartości współrzędnych nazywane są ładunkami wygenerowanych czynników (składowych głównych). W ten sposób konstruowana jest nowa przestrzeń obserwacji, w której najwięcej zmienności wyjaśniają początkowe czynniki. PCA jest często używana do zmniejszania rozmiaru zbioru danych statystycznych, poprzez odrzucenie ostatnich czynników. Można też poszukać merytorycznej interpretacji czynników, zależnej od rodzaju danych, co pozwala lepiej zrozumieć naturę danych, choć bywa trudne przy większej liczbie badanych zmiennych. W przetwarzaniu sygnałów PCA jest używana np. do kompresji sygnału. PCA może być oparte albo na macierzy korelacji, albo macierzy kowariancji utworzonej ze zbioru wejściowego. Algorytm w obydwu wersjach jest poza tym identyczny, jednak różne są uzyskane wyniki. W przypadku użycia macierzy kowariancji, zmienne w zbiorze wejściowym o największej wariancji mają największy wpływ na wynik, co może być wskazane, jeśli zmienne reprezentują porównywalne wielkości, np. procentowe zmiany kursów różnych akcji. Użycie macierzy korelacji natomiast odpowiada wstępnej normalizacji zbioru wejściowego tak, aby każda zmienna miała na wejściu identyczną wariancję, co może być wskazane, jeśli wartości zmiennych nie są porównywalne.li wartości zmiennych nie są porównywalne. , Analizo al precipaj konsisteroj (alinomitaAnalizo al precipaj konsisteroj (alinomita transformo de Karhunen-Loève (KLT), aŭ transformo de Hotelling) estas matematika teĥniko por plisimpligi la datumojn rezultantaj enkadre de statistiko multvariabla, kaj kiu ebligas evidentigi fenomenojn ial kaŝitajn en la komplekseco de multego da datumoj, determinante kunmetaĵojn da plej rezultivaj datumoj. Tiu metodo ne estis ebla ĝis la ekekzisto de komputiloj, ĉar ĝi bezonas egan amason da kalkulado, sed ekde informadiko, ĝi estas facila kaj fruktdona teĥniko, kiu ekzemple montris el la genaj datumoj de eŭropa loĝantaro la genetikan apartecon de la Eŭskoj de Ebro ĝis Garono, aŭ pruvi, ke la disvastiĝo de agrikulturo ne estis disvastiĝo de novkutimo, sed de gento da agrikulturantoj. La analizo al precipaj konsisteroj estis inventita de Karl Pearson en 1901. Ĝi estas la plej simpla multvariebla analizo aigenvektorbazita. Ĝi estas nun precipe uzata kiel ilo en kaj por prognozi modelojn. Eblas fari analizon al precipaj konsisteroj per de matrico de varianco-kunvarianco (aŭ de korelacio) de datenoj, aŭ per singulara valora malkomponaĵo de matrico de datenoj, kutime post centrigado rilate al la mezvaloroj (kaj normigado) de ĉiu elemento de la matrico. Ĝi estas orta transformo, kiu konvertas aron da observaĵoj de eblaj korelaciataj variabloj al aro de valoroj de precipaj konsisteroj (ankaŭ nomataj ĉefaj komponantoj), tielmaniere ke la unua precipa komponanto prezentas la kiel eble plej grandan variancon (ĉar variabloj estas supozitaj sendependaj laŭ tia metodo) laŭ sia direkto, la kiel eble plej malgranda varianco laŭ la orta direkto; ĉiu laŭvica komponanto havas la kiel eble plej granda varianco, sub la trudo, ke ĝi estu orta (t.e. ne-korelaciigita) al la antaŭa komponanto. Tiu metodo permesas ankaŭ kompresadon de aro da N hazardaj variabloj, al la n-aj (n unuaj komponantoj elektitaj kiel plej bonaj por priskribi la studaton.kiel plej bonaj por priskribi la studaton. , Hoofdcomponentenanalyse, of principale-comHoofdcomponentenanalyse, of principale-componentenanalyse (afkorting: PCA), is een multivariate analysemethode in de statistiek om een grote hoeveelheid gegevens te beschrijven met een kleiner aantal relevante grootheden, de hoofdcomponenten of principale componenten. Hoofdcomponentenanalyse werd in 1901 uitgevonden door Karl Pearson. Men spreekt van datareductie, hoewel strikt genomen de gegevens niet gereduceerd zijn, maar alleen de beschrijving ervan. Als hoofdcomponenten berekent de methode de eigenvectoren van de covariantiematrix van de gegevens en kiest daaruit de belangrijkste. Deze eigenvectoren zijn de hoofdassen van de ellipsoïde die door de covariantiematrix wordt beschreven en die min of meer de "puntenwolk" van de data voorstelt. Hoofdcomponentenanalyse is bruikbaar als eerste stap bij een factoranalyse om het maximale aantal en de aard van de factoren te bepalen. Verwante methoden zijn correspondentieanalyse (CA) of "reciprocal averaging" (RA) en de canonische vormen van hoofdcomponentenanalyse en correspondentieanalyse: redundantieanalyse (RDA) en canonische correspondentieanalyse (CCA).n canonische correspondentieanalyse (CCA). , Die Hauptkomponentenanalyse (kurz: HKA, enDie Hauptkomponentenanalyse (kurz: HKA, englisch Principal Component Analysis, kurz: PCA; das mathematische Verfahren ist auch als Hauptachsentransformation oder Singulärwertzerlegung bekannt) ist ein Verfahren der multivariaten Statistik. Sie strukturiert umfangreiche Datensätze durch Benutzung der Eigenvektoren der Kovarianzmatrix. Dadurch können Datensätze vereinfacht und veranschaulicht werden, indem eine Vielzahl statistischer Variablen durch eine geringere Zahl möglichst aussagekräftiger Linearkombinationen (die Hauptkomponenten) genähert wird. Speziell in der Bildverarbeitung wird die Hauptkomponentenanalyse, auch Karhunen-Loève-Transformation genannt, benutzt. Sie ist von der Faktorenanalyse zu unterscheiden, mit der sie formale Ähnlichkeit hat und in der sie als Näherungsmethode zur Faktorenextraktion verwendet werden kann (der Unterschied der beiden Verfahren wird im Artikel Faktorenanalyse erläutert). Es gibt verschiedene Verallgemeinerungen der Hauptkomponentenanalyse, z. B. die , die , oder die (kernel principal component analysis, kurz: kernel PCA).pal component analysis, kurz: kernel PCA). , L'analisi delle componenti principali (in L'analisi delle componenti principali (in inglese principal component analysis o abbreviata PCA), anche nota come trasformata di Karhunen-Loève, è una tecnica per la semplificazione dei dati utilizzata nell'ambito della statistica multivariata. Questo metodo fu proposto per la prima volta nel 1901 da Karl Pearson e sviluppato poi da Harold Hotelling nel 1933, e fa parte dell'analisi fattoriale. La tecnica, esempio di riduzione della dimensionalità, ha lo scopo di ridurre il numero più o meno elevato di variabili che descrivono un insieme di dati a un numero minore di variabili latenti, limitando il più possibile la perdita di informazioni. più possibile la perdita di informazioni. , , osagai nagusien analisia (ONA) edo Princ, osagai nagusien analisia (ONA) edo Principal Components Analysis (PCA) elkarrekiko independenteak eta ergodikoak den aldagai multzo edo osagai multzo batetik bariantzarik gabeko aldagai kopuru bat osatzea da,, hasierako osagaien korrelazioa agerian uzteko helburuarekin. Horretarako korrelazio matrizea hartu eta bariantza minimotzen da, puntuek osagaietan dituzten puntuazioak atera asmoz eta horrela egitura hobeto ikusteko. Zehatzago: , minimotu behar da, non o osagaiak diren. Osagai bakoitza aldagai guztien konbinazio lineal bat izango da eta batez ere elkarrekiko bariantza nabarmena duten aldagaiekin izango da loturik. Zenbaitetan Konposatu Nagusien Analisia (KNA) izenez ezagutzen da.gusien Analisia (KNA) izenez ezagutzen da.
http://dbpedia.org/ontology/thumbnail http://commons.wikimedia.org/wiki/Special:FilePath/GaussianScatterPCA.svg?width=300 +
http://dbpedia.org/ontology/wikiPageExternalLink https://archive.org/details/principalcompone00joll_0/page/487 + , https://arxiv.org/abs/1404.1100 + , http://factominer.free.fr/ + , http://www.cs.otago.ac.nz/cosc453/student_tutorials/principal_components.pdf + , https://books.google.com/books%3Fid=_RIeBQAAQBAJ&printsec=frontcover%23v=snippet&q=%22principal%20component%20analysis%22&f=false + , http://www.coheris.com/produits/analytics/logiciel-data-mining/ + , https://adegenet.r-forge.r-project.org/ + , http://link.springer.com/10.1007/b98835 +
http://dbpedia.org/ontology/wikiPageID 76340
http://dbpedia.org/ontology/wikiPageLength 109153
http://dbpedia.org/ontology/wikiPageRevisionID 1120999681
http://dbpedia.org/ontology/wikiPageWikiLink http://dbpedia.org/resource/Curve + , http://dbpedia.org/resource/Linear_discriminant_analysis + , http://dbpedia.org/resource/Origin_%28data_analysis_software%29 + , http://dbpedia.org/resource/Singular_spectrum_analysis + , http://dbpedia.org/resource/Karhunen%E2%80%93Lo%C3%A8ve_theorem + , http://dbpedia.org/resource/Eigenface + , http://dbpedia.org/resource/Mathematica + , http://dbpedia.org/resource/Swap_%28finance%29 + , http://dbpedia.org/resource/Eigenvectors + , http://dbpedia.org/resource/Harold_Hotelling + , http://dbpedia.org/resource/Frobenius_norm + , http://dbpedia.org/resource/Gretl + , http://dbpedia.org/resource/Kullback%E2%80%93Leibler_divergence + , http://dbpedia.org/resource/Discrete_cosine_transform + , http://dbpedia.org/resource/Factor_analysis + , http://dbpedia.org/resource/Transpose + , http://dbpedia.org/resource/Iconography_of_correlations + , http://dbpedia.org/resource/Signal-to-noise_ratio + , http://dbpedia.org/resource/Orange_%28software%29 + , http://dbpedia.org/resource/Non-linear_iterative_partial_least_squares + , http://dbpedia.org/resource/Principal_geodesic_analysis + , http://dbpedia.org/resource/Mlpack + , http://dbpedia.org/resource/ELKI + , http://dbpedia.org/resource/Principle_Component_Analysis + , http://dbpedia.org/resource/Dimensionality_reduction + , http://dbpedia.org/resource/Projection_%28mathematics%29 + , http://dbpedia.org/resource/Mean + , http://dbpedia.org/resource/Kernel_principal_component_analysis + , http://dbpedia.org/resource/Spectral_theorem + , http://dbpedia.org/resource/Unit_vector + , http://dbpedia.org/resource/Free_software + , http://dbpedia.org/resource/Coordinate_system + , http://dbpedia.org/resource/MATLAB + , http://dbpedia.org/resource/Bessel%27s_correction + , http://dbpedia.org/resource/Matrix_algebra + , http://dbpedia.org/resource/Microbiome + , http://dbpedia.org/resource/Exploratory_data_analysis + , http://dbpedia.org/resource/Canonical_correspondence_analysis + , http://dbpedia.org/resource/Rank_%28linear_algebra%29 + , http://dbpedia.org/resource/Category:Dimension_reduction + , http://dbpedia.org/resource/Diagonal + , http://dbpedia.org/resource/Z-score + , http://dbpedia.org/resource/Covariance_matrix + , http://dbpedia.org/resource/Robust_statistics + , http://dbpedia.org/resource/Geometric_data_analysis + , http://dbpedia.org/resource/Principal_component_regression + , http://dbpedia.org/resource/Standard_deviation + , http://dbpedia.org/resource/Distance_from_a_point_to_a_line + , http://dbpedia.org/resource/Principal_axis_theorem + , http://dbpedia.org/resource/Electrophysiology + , http://dbpedia.org/resource/Eigenvector + , http://dbpedia.org/resource/Equality_%28mathematics%29 + , http://dbpedia.org/resource/Quantitative_finance + , http://dbpedia.org/resource/Genomics + , http://dbpedia.org/resource/Singular_value_decomposition + , http://dbpedia.org/resource/Weighted_least_squares + , http://dbpedia.org/resource/Scientific_Reports + , http://dbpedia.org/resource/Eigendecomposition + , http://dbpedia.org/resource/Risk_management + , http://dbpedia.org/resource/Mode_shape + , http://dbpedia.org/resource/Jean-Paul_Benz%C3%A9cri + , http://dbpedia.org/resource/Signal_processing + , http://dbpedia.org/resource/Change_of_basis + , http://dbpedia.org/resource/File:PCA_of_Haplogroup_J_using_37_STRs.png + , http://dbpedia.org/resource/Matrix_%28mathematics%29 + , http://dbpedia.org/resource/L1-norm_principal_component_analysis + , http://dbpedia.org/resource/Standard_score + , http://dbpedia.org/resource/Polar_decomposition + , http://dbpedia.org/resource/Correlation_clustering + , http://dbpedia.org/resource/Conjugate_transpose + , http://dbpedia.org/resource/Mutual_information + , http://dbpedia.org/resource/Diagonalizable_matrix + , http://dbpedia.org/resource/C%2B%2B + , http://dbpedia.org/resource/Correlation_matrix + , http://dbpedia.org/resource/Matrix-free_methods + , http://dbpedia.org/resource/Chi-squared_statistic + , http://dbpedia.org/resource/Rayleigh_quotient + , http://dbpedia.org/resource/Dynamic_mode_decomposition + , http://dbpedia.org/resource/Functional_principal_component_analysis + , http://dbpedia.org/resource/Gram%E2%80%93Schmidt + , http://dbpedia.org/resource/Basis_%28linear_algebra%29 + , http://dbpedia.org/resource/Ludovic_Lebart + , http://dbpedia.org/resource/Whitening_transformation + , http://dbpedia.org/resource/Ellipsoid + , http://dbpedia.org/resource/Spike_sorting + , http://dbpedia.org/resource/Eigenvalues + , http://dbpedia.org/resource/Low-rank_approximation + , http://dbpedia.org/resource/Two-factor_theory_of_intelligence + , http://dbpedia.org/resource/Correspondence_analysis + , http://dbpedia.org/resource/Joe_Flood_%28policy_analyst%29 + , http://dbpedia.org/resource/Bootstrapping_%28statistics%29 + , http://dbpedia.org/resource/Robust_principal_component_analysis + , http://dbpedia.org/resource/Multiple_correspondence_analysis + , http://dbpedia.org/resource/PARAFAC + , http://dbpedia.org/resource/Factor_analysis_of_mixed_data + , http://dbpedia.org/resource/Atmospheric_science + , http://dbpedia.org/resource/Approximation + , http://dbpedia.org/resource/Factorial_code + , http://dbpedia.org/resource/Detrended_correspondence_analysis + , http://dbpedia.org/resource/ALGLIB + , http://dbpedia.org/resource/Eckart%E2%80%93Young_theorem + , http://dbpedia.org/resource/Metabolomics + , http://dbpedia.org/resource/City_development_index + , http://dbpedia.org/resource/Tucker_decomposition + , http://dbpedia.org/resource/Non-negative_matrix_factorization + , http://dbpedia.org/resource/Scikit-learn + , http://dbpedia.org/resource/Scree_plot + , http://dbpedia.org/resource/KNIME + , http://dbpedia.org/resource/CUR_matrix_approximation + , http://dbpedia.org/resource/Orthonormal_basis + , http://dbpedia.org/resource/Stock + , http://dbpedia.org/resource/Pattern_recognition + , http://dbpedia.org/resource/Matplotlib + , http://dbpedia.org/resource/Sample_variance + , http://dbpedia.org/resource/Linear_transformation + , http://dbpedia.org/resource/Orthogonal_transformation + , http://dbpedia.org/resource/Category:Matrix_decompositions + , http://dbpedia.org/resource/United_Nations_Development_Programme + , http://dbpedia.org/resource/LOBPCG + , http://dbpedia.org/resource/Weka_%28machine_learning%29 + , http://dbpedia.org/resource/Expectation%E2%80%93maximization_algorithm + , http://dbpedia.org/resource/Point_distribution_model + , http://dbpedia.org/resource/Cross-covariance + , http://dbpedia.org/resource/Louis_Leon_Thurstone + , http://dbpedia.org/resource/Charles_Spearman + , http://dbpedia.org/resource/Eigenvectors_and_eigenvalues + , http://dbpedia.org/resource/Risk%E2%80%93return_spectrum + , http://dbpedia.org/resource/File:Fractional_Residual_Variances_comparison%2C_PCA_and_NMF.pdf + , http://dbpedia.org/resource/Sparse_PCA + , http://dbpedia.org/resource/White_noise + , http://dbpedia.org/resource/PHP + , http://dbpedia.org/resource/K-means_clustering + , http://dbpedia.org/resource/Vector_space + , http://dbpedia.org/resource/Asset_allocation + , http://dbpedia.org/resource/Linear_correlation + , http://dbpedia.org/resource/Eran_Elhaik + , http://dbpedia.org/resource/BLAS + , http://dbpedia.org/resource/Iid + , http://dbpedia.org/resource/Circular_reasoning + , http://dbpedia.org/resource/GNU_Octave + , http://dbpedia.org/resource/Empirical_orthogonal_functions + , http://dbpedia.org/resource/Predictive_modeling + , http://dbpedia.org/resource/.NET_Framework + , http://dbpedia.org/resource/Normalization_%28statistics%29 + , http://dbpedia.org/resource/Contingency_tables + , http://dbpedia.org/resource/Analytica_%28software%29 + , http://dbpedia.org/resource/Qlucore + , http://dbpedia.org/resource/Cluster_analysis + , http://dbpedia.org/resource/Independent_component_analysis + , http://dbpedia.org/resource/IDL_%28programming_language%29 + , http://dbpedia.org/resource/Interactive_Data_Language + , http://dbpedia.org/resource/Partial_least_squares + , http://dbpedia.org/resource/Nonlinear_dimensionality_reduction + , http://dbpedia.org/resource/Neuron + , http://dbpedia.org/resource/Elastic_map + , http://dbpedia.org/resource/Regression_analysis + , http://dbpedia.org/resource/Power_iteration + , http://dbpedia.org/resource/Real_coordinate_space + , http://dbpedia.org/resource/NAG_Numerical_Library + , http://dbpedia.org/resource/Phase_transitions + , http://dbpedia.org/resource/Variance + , http://dbpedia.org/resource/Biplot + , http://dbpedia.org/resource/SciPy + , http://dbpedia.org/resource/Kernel_PCA + , http://dbpedia.org/resource/Outlier + , http://dbpedia.org/resource/Proper_orthogonal_decomposition + , http://dbpedia.org/resource/Positive_semidefinite_matrix + , http://dbpedia.org/resource/Python_%28programming_language%29 + , http://dbpedia.org/resource/Minimum_mean_square_error + , http://dbpedia.org/resource/Orthogonal + , http://dbpedia.org/resource/SPSS + , http://dbpedia.org/resource/Multilinear_principal_component_analysis + , http://dbpedia.org/resource/Luigi_Luca_Cavalli-Sforza + , http://dbpedia.org/resource/Julia_language + , http://dbpedia.org/resource/Electric_current + , http://dbpedia.org/resource/SAS_%28software%29 + , http://dbpedia.org/resource/Karl_Pearson + , http://dbpedia.org/resource/Oja%27s_rule + , http://dbpedia.org/resource/Oracle_Database + , http://dbpedia.org/resource/Perpendicular_distance + , http://dbpedia.org/resource/Lanczos_algorithm + , http://dbpedia.org/resource/Orthogonal_coordinate_system + , http://dbpedia.org/resource/Population_genetics + , http://dbpedia.org/resource/Overfitting + , http://dbpedia.org/resource/NMath + , http://dbpedia.org/resource/Risk_return_ratio + , http://dbpedia.org/resource/R_%28programming_language%29 + , http://dbpedia.org/resource/Stock_selection_criterion + , http://dbpedia.org/resource/Action_potential + , http://dbpedia.org/resource/Explanatory_variable + , http://dbpedia.org/resource/Interest_rate_derivative + , http://dbpedia.org/resource/Spike-triggered_covariance + , http://dbpedia.org/resource/Diagonal_matrix + , http://dbpedia.org/resource/Psychometrics + , http://dbpedia.org/resource/Neuroscience + , http://dbpedia.org/resource/Human_Development_Index + , http://dbpedia.org/resource/Covariance + , http://dbpedia.org/resource/Canonical_correlation + , http://dbpedia.org/resource/Data_mining + , http://dbpedia.org/resource/Lp_space + , http://dbpedia.org/resource/OpenCV + , http://dbpedia.org/resource/Matrix_decomposition + , http://dbpedia.org/resource/Empirical_mean + , http://dbpedia.org/resource/Multilinear_subspace_learning + , http://dbpedia.org/resource/High_dimensional_data + , http://dbpedia.org/resource/Round-off_errors + , http://dbpedia.org/resource/Causal_modeling + , http://dbpedia.org/resource/Order_parameters + , http://dbpedia.org/resource/Orthonormal_transformation + , http://dbpedia.org/resource/File:PCA_versus_Factor_Analysis.jpg + , http://dbpedia.org/resource/File:SCREE_plot.jpg + , http://dbpedia.org/resource/Principal_diagonal + , http://dbpedia.org/resource/B:Statistics/Multivariate_Data_Analysis/Principal_Component_Analysis + , http://dbpedia.org/resource/V:Exploratory_factor_analysis + , http://dbpedia.org/resource/File:Elmap_breastcancer_wiki.png + , http://dbpedia.org/resource/File:AirMerIconographyCorrelation.jpg + , http://dbpedia.org/resource/Eigendecomposition_of_a_matrix + , http://dbpedia.org/resource/Eigenvalue + , http://dbpedia.org/resource/Intelligence_quotient + , http://dbpedia.org/resource/Transform_coding + , http://dbpedia.org/resource/File:GaussianScatterPCA.svg + , http://dbpedia.org/resource/Trevor_Hastie +
http://dbpedia.org/property/id ey2PE5xi9-A#t=2385
http://dbpedia.org/property/title Stanford University video by Andrew Ng
http://dbpedia.org/property/wikiPageUsesTemplate http://dbpedia.org/resource/Template:YouTube + , http://dbpedia.org/resource/Template:Rp + , http://dbpedia.org/resource/Template:Div_col + , http://dbpedia.org/resource/Template:Div_col_end + , http://dbpedia.org/resource/Template:Short_description + , http://dbpedia.org/resource/Template:Cite_book + , http://dbpedia.org/resource/Template:Mvar + , http://dbpedia.org/resource/Template:Main + , http://dbpedia.org/resource/Template:Citation_needed + , http://dbpedia.org/resource/Template:Clarify + , http://dbpedia.org/resource/Template:Isbn + , http://dbpedia.org/resource/Template:Reflist + , http://dbpedia.org/resource/Template:Math + , http://dbpedia.org/resource/Template:Commons_category + , http://dbpedia.org/resource/Template:Page_needed + , http://dbpedia.org/resource/Template:Statistics + , http://dbpedia.org/resource/Template:Authority_control + , http://dbpedia.org/resource/Template:%21 + , http://dbpedia.org/resource/Template:See_also +
http://purl.org/dc/terms/subject http://dbpedia.org/resource/Category:Dimension_reduction + , http://dbpedia.org/resource/Category:Matrix_decompositions +
http://purl.org/linguistics/gold/hypernym http://dbpedia.org/resource/Procedure +
http://www.w3.org/ns/prov#wasDerivedFrom http://en.wikipedia.org/wiki/Principal_component_analysis?oldid=1120999681&ns=0 +
http://xmlns.com/foaf/0.1/depiction http://commons.wikimedia.org/wiki/Special:FilePath/PCA_of_Haplogroup_J_using_37_STRs.png + , http://commons.wikimedia.org/wiki/Special:FilePath/PCA_versus_Factor_Analysis.jpg + , http://commons.wikimedia.org/wiki/Special:FilePath/SCREE_plot.jpg + , http://commons.wikimedia.org/wiki/Special:FilePath/Elmap_breastcancer_wiki.png + , http://commons.wikimedia.org/wiki/Special:FilePath/GaussianScatterPCA.svg + , http://commons.wikimedia.org/wiki/Special:FilePath/AirMerIconographyCorrelation.jpg +
http://xmlns.com/foaf/0.1/isPrimaryTopicOf http://en.wikipedia.org/wiki/Principal_component_analysis +
owl:sameAs http://ko.dbpedia.org/resource/%EC%A3%BC%EC%84%B1%EB%B6%84_%EB%B6%84%EC%84%9D + , http://ru.dbpedia.org/resource/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B3%D0%BB%D0%B0%D0%B2%D0%BD%D1%8B%D1%85_%D0%BA%D0%BE%D0%BC%D0%BF%D0%BE%D0%BD%D0%B5%D0%BD%D1%82 + , http://pl.dbpedia.org/resource/Analiza_g%C5%82%C3%B3wnych_sk%C5%82adowych + , http://dbpedia.org/resource/Principal_component_analysis + , http://ca.dbpedia.org/resource/An%C3%A0lisi_de_components_principals + , http://eo.dbpedia.org/resource/Analizo_al_precipaj_konsisteroj + , http://it.dbpedia.org/resource/Analisi_delle_componenti_principali + , http://uk.dbpedia.org/resource/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%B3%D0%BE%D0%BB%D0%BE%D0%B2%D0%BD%D0%B8%D1%85_%D0%BA%D0%BE%D0%BC%D0%BF%D0%BE%D0%BD%D0%B5%D0%BD%D1%82 + , http://yago-knowledge.org/resource/Principal_component_analysis + , https://global.dbpedia.org/id/2feP7 + , http://rdf.freebase.com/ns/m.07s82n4 + , http://et.dbpedia.org/resource/Peakomponentide_anal%C3%BC%C3%BCs + , http://d-nb.info/gnd/4129174-8 + , http://is.dbpedia.org/resource/Meginhlutagreining + , http://fa.dbpedia.org/resource/%D8%AA%D8%AD%D9%84%DB%8C%D9%84_%D9%85%D8%A4%D9%84%D9%81%D9%87%E2%80%8C%D9%87%D8%A7%DB%8C_%D8%A7%D8%B5%D9%84%DB%8C + , http://de.dbpedia.org/resource/Hauptkomponentenanalyse + , http://fi.dbpedia.org/resource/P%C3%A4%C3%A4komponenttianalyysi + , http://sr.dbpedia.org/resource/Analiza_glavnih_komponenti + , http://gl.dbpedia.org/resource/An%C3%A1lise_de_compo%C3%B1entes_principais + , http://tl.dbpedia.org/resource/Analisis_ng_pangunahing_bahagi + , http://ast.dbpedia.org/resource/Anal%C3%ADs_de_componentes_principales + , http://www.wikidata.org/entity/Q2873 + , http://cs.dbpedia.org/resource/Anal%C3%BDza_hlavn%C3%ADch_komponent + , http://hu.dbpedia.org/resource/F%C5%91komponens-anal%C3%ADzis + , http://es.dbpedia.org/resource/An%C3%A1lisis_de_componentes_principales + , http://sv.dbpedia.org/resource/Principalkomponentanalys + , http://nl.dbpedia.org/resource/Hoofdcomponentenanalyse + , http://pt.dbpedia.org/resource/An%C3%A1lise_de_componentes_principais + , http://ar.dbpedia.org/resource/%D8%AA%D8%AD%D9%84%D9%8A%D9%84_%D8%A7%D9%84%D8%B9%D9%86%D8%B5%D8%B1_%D8%A7%D9%84%D8%B1%D8%A6%D9%8A%D8%B3%D9%8A + , http://ja.dbpedia.org/resource/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90 + , http://eu.dbpedia.org/resource/Osagai_nagusien_analisi + , http://zh.dbpedia.org/resource/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90 + , http://id.dbpedia.org/resource/Analisis_komponen_utama + , http://tr.dbpedia.org/resource/Temel_bile%C5%9Fen_analizi + , http://vi.dbpedia.org/resource/Ph%C3%A9p_ph%C3%A2n_t%C3%ADch_th%C3%A0nh_ph%E1%BA%A7n_ch%C3%ADnh + , http://sk.dbpedia.org/resource/Anal%C3%BDza_hlavn%C3%BDch_komponentov + , http://he.dbpedia.org/resource/%D7%A0%D7%99%D7%AA%D7%95%D7%97_%D7%92%D7%95%D7%A8%D7%9E%D7%99%D7%9D_%D7%A8%D7%90%D7%A9%D7%99%D7%99%D7%9D + , http://fr.dbpedia.org/resource/Analyse_en_composantes_principales +
rdf:type http://dbpedia.org/class/yago/Content105809192 + , http://dbpedia.org/class/yago/KnowledgeDomain105999266 + , http://dbpedia.org/class/yago/Discipline105996646 + , http://dbpedia.org/class/yago/Decomposition106013471 + , http://dbpedia.org/class/yago/WikicatMatrixDecompositions + , http://dbpedia.org/class/yago/VectorAlgebra106013298 + , http://dbpedia.org/ontology/AnatomicalStructure + , http://dbpedia.org/class/yago/Science105999797 + , http://dbpedia.org/class/yago/PureMathematics106003682 + , http://dbpedia.org/class/yago/Algebra106012726 + , http://dbpedia.org/class/yago/Mathematics106000644 + , http://dbpedia.org/class/yago/Cognition100023271 + , http://dbpedia.org/class/yago/Abstraction100002137 + , http://dbpedia.org/class/yago/PsychologicalFeature100023100 +
rdfs:comment Ме́тод головни́х компоне́нт (МГК, англ. prМе́тод головни́х компоне́нт (МГК, англ. principal component analysis, PCA) — метод факторного аналізу в статистиці, який використовує ортогональне перетворення множини спостережень з можливо пов'язаними змінними (сутностями, кожна з яких набуває різних числових значень) у множину змінних без лінійної кореляції, які називаються головними компонентами.ї, які називаються головними компонентами. , Die Hauptkomponentenanalyse (kurz: HKA, enDie Hauptkomponentenanalyse (kurz: HKA, englisch Principal Component Analysis, kurz: PCA; das mathematische Verfahren ist auch als Hauptachsentransformation oder Singulärwertzerlegung bekannt) ist ein Verfahren der multivariaten Statistik. Sie strukturiert umfangreiche Datensätze durch Benutzung der Eigenvektoren der Kovarianzmatrix. Dadurch können Datensätze vereinfacht und veranschaulicht werden, indem eine Vielzahl statistischer Variablen durch eine geringere Zahl möglichst aussagekräftiger Linearkombinationen (die Hauptkomponenten) genähert wird. Speziell in der Bildverarbeitung wird die Hauptkomponentenanalyse, auch Karhunen-Loève-Transformation genannt, benutzt. Sie ist von der Faktorenanalyse zu unterscheiden, mit der sie formale Ähnlichkeit hat und in der sie als Näherungsmethode z hat und in der sie als Näherungsmethode z , Analizo al precipaj konsisteroj (alinomitaAnalizo al precipaj konsisteroj (alinomita transformo de Karhunen-Loève (KLT), aŭ transformo de Hotelling) estas matematika teĥniko por plisimpligi la datumojn rezultantaj enkadre de statistiko multvariabla, kaj kiu ebligas evidentigi fenomenojn ial kaŝitajn en la komplekseco de multego da datumoj, determinante kunmetaĵojn da plej rezultivaj datumoj. Tiu metodo ne estis ebla ĝis la ekekzisto de komputiloj, ĉar ĝi bezonas egan amason da kalkulado, sed ekde informadiko, ĝi estas facila kaj fruktdona teĥniko, kiu ekzemple montris el la genaj datumoj de eŭropa loĝantaro la genetikan apartecon de la Eŭskoj de Ebro ĝis Garono, aŭ pruvi, ke la disvastiĝo de agrikulturo ne estis disvastiĝo de novkutimo, sed de gento da agrikulturantoj.ovkutimo, sed de gento da agrikulturantoj. , 主成分分析(しゅせいぶんぶんせき、英: principal component an主成分分析(しゅせいぶんぶんせき、英: principal component analysis; PCA)は、相関のある多数の変数から相関のない少数で全体のばらつきを最もよく表すと呼ばれる変数を合成する多変量解析の一手法。データの次元を削減するために用いられる。 主成分を与える変換は、第一主成分の分散を最大化し、続く主成分はそれまでに決定した主成分と直交するというの下で分散を最大化するようにして選ばれる。主成分の分散を最大化することは、観測値の変化に対する説明能力を可能な限り主成分に持たせる目的で行われる。選ばれた主成分は互いに直交し、与えられた観測値のセットを線型結合として表すことができる。言い換えると、主成分は観測値のセットの直交基底となっている。主成分ベクトルの直交性は、主成分ベクトルが共分散行列(あるいは相関行列)の固有ベクトルになっており、共分散行列が実対称行列であることから導かれる。 主成分分析による評価は主成分得点と主成分負荷量をそれぞれ可視化した主成分プロット、あるいは両者を重ね合わせたバイプロットを通して解釈される。主成分分析を実行するためのソフトウェアや関数によって、観測値の基準化の方法や数値計算のアルゴリズムに細かな差異が存在し、個々の方法は必ずしも互いに等価であるとは限らない(例えば、R言語における prcomp 関数と の PCA 関数の結果は異なる)。い(例えば、R言語における prcomp 関数と の PCA 関数の結果は異なる)。 , L'analisi delle componenti principali (in L'analisi delle componenti principali (in inglese principal component analysis o abbreviata PCA), anche nota come trasformata di Karhunen-Loève, è una tecnica per la semplificazione dei dati utilizzata nell'ambito della statistica multivariata. Questo metodo fu proposto per la prima volta nel 1901 da Karl Pearson e sviluppato poi da Harold Hotelling nel 1933, e fa parte dell'analisi fattoriale. La tecnica, esempio di riduzione della dimensionalità, ha lo scopo di ridurre il numero più o meno elevato di variabili che descrivono un insieme di dati a un numero minore di variabili latenti, limitando il più possibile la perdita di informazioni. più possibile la perdita di informazioni. , Hoofdcomponentenanalyse, of principale-comHoofdcomponentenanalyse, of principale-componentenanalyse (afkorting: PCA), is een multivariate analysemethode in de statistiek om een grote hoeveelheid gegevens te beschrijven met een kleiner aantal relevante grootheden, de hoofdcomponenten of principale componenten. Hoofdcomponentenanalyse werd in 1901 uitgevonden door Karl Pearson. Hoofdcomponentenanalyse is bruikbaar als eerste stap bij een factoranalyse om het maximale aantal en de aard van de factoren te bepalen.tal en de aard van de factoren te bepalen. , Principalkomponentanalys, ofta förkortat PPrincipalkomponentanalys, ofta förkortat PCA av engelskans principal component analysis, är en linjär ortogonal transform som gör att den transformerade datans dimensioner är ortogonala; det vill säga att de är oberoende och inte har någon kovarians (eller korrelation). PCA introducerades 1901 av Karl Pearson. Alternativa namn är transform (KLT), och proper orthogonal decomposition (POD). PCA har likheter med faktoranalys som till skillnad från PCA inte är en ortogonal transform.d från PCA inte är en ortogonal transform. , Analiza głównych składowych (ang. principaAnaliza głównych składowych (ang. principal component analysis, PCA) – jedna ze statystycznych metod analizy czynnikowej. Zbiór danych składający się z N obserwacji, z których każda obejmuje K zmiennych, można interpretować jako chmurę N punktów w przestrzeni K-wymiarowej. Celem PCA jest taki obrót układu współrzędnych, aby maksymalizować w pierwszej kolejności wariancję pierwszej współrzędnej, następnie wariancję drugiej współrzędnej itd.. Tak przekształcone wartości współrzędnych nazywane są ładunkami wygenerowanych czynników (składowych głównych). W ten sposób konstruowana jest nowa przestrzeń obserwacji, w której najwięcej zmienności wyjaśniają początkowe czynniki.zmienności wyjaśniają początkowe czynniki. , Метод главных компонент (англ. principal cМетод главных компонент (англ. principal component analysis, PCA) — один из основных способов уменьшить размерность данных, потеряв наименьшее количество информации. Изобретён Карлом Пирсоном в 1901 году. Применяется во многих областях, в том числе в эконометрике, биоинформатике, обработке изображений, для сжатия данных, в общественных науках. для сжатия данных, в общественных науках. , A Análise de Componentes Principais (ACP) A Análise de Componentes Principais (ACP) ou Principal Component Analysis (PCA) é um procedimento matemático que utiliza uma (ortogonalização de vetores) para converter um conjunto de observações de variáveis possivelmente correlacionadas num conjunto de valores de variáveis chamadas de componentes principais. O número de componentes principais é sempre menor ou igual ao número de variáveis originais. Os componentes principais são garantidamente independentes apenas se os dados forem normalmente distribuídos (conjuntamente). O PCA é sensível à escala relativa das variáveis originais. Dependendo da área de aplicação, o PCA é também conhecido como transformada de Karhunen-Loève (KLT) discreta, transformada de Hotelling ou decomposição ortogonal própria (POD).g ou decomposição ortogonal própria (POD). , Dalam statistika, analisis komponen utama Dalam statistika, analisis komponen utama (disingkat AKU; bahasa Inggris: principal component analysis/PCA) adalah teknik yang digunakan untuk menyederhanakan suatu data, dengan cara mentransformasi data secara linier sehingga terbentuk sistem koordinat baru dengan varians maksimum. Analisis komponen utama dapat digunakan untuk mereduksi dimensi suatu data tanpa mengurangi karakteristik data tersebut secara signifikan. Analisis komponen utama juga sering digunakan untuk menghindari masalah multikolinearitas antar peubah bebas dalam model regresi berganda.peubah bebas dalam model regresi berganda. , 주성분 분석(主成分分析, Principal component analysis주성분 분석(主成分分析, Principal component analysis; PCA)은 고차원의 데이터를 저차원의 데이터로 환원시키는 기법을 말한다. 이 때 서로 연관 가능성이 있는 고차원 공간의 표본들을 선형 연관성이 없는 저차원 공간(주성분)의 표본으로 변환하기 위해 을 사용한다. 데이터를 한개의 축으로 사상시켰을 때 그 분산이 가장 커지는 축을 첫 번째 주성분, 두 번째로 커지는 축을 두 번째 주성분으로 놓이도록 새로운 좌표계로 데이터를 선형 변환한다. 이와 같이 표본의 차이를 가장 잘 나타내는 성분들로 분해함으로써 데이터 분석에 여러 가지 이점을 제공한다. 이 변환은 첫째 주성분이 가장 큰 분산을 가지고, 이후의 주성분들은 이전의 주성분들과 직교한다는 제약 아래에 가장 큰 분산을 갖고 있다는 식으로 정의되어있다. 중요한 성분들은 의 고유 벡터이기 때문에 직교하게 된다. 주성분 분석은 인자 분석과 밀접한 관계를 갖고 있다. 인자 분석은 일반적으로 기저 구조에 대한 영역 한정적인 가정을 포함하고, 약간의 차이가 있는 행렬의 고유 벡터를 풀어낸다.한정적인 가정을 포함하고, 약간의 차이가 있는 행렬의 고유 벡터를 풀어낸다. , 在多元统计分析中,主成分分析(英語:Principal components ana在多元统计分析中,主成分分析(英語:Principal components analysis,PCA)是一種统计分析、簡化數據集的方法。它利用正交变换来对一系列可能相关的变量的观测值进行线性变换,从而投影为一系列线性不相关变量的值,这些不相关变量称为主成分(Principal Components)。具体地,主成分可以看做一个线性方程,其包含一系列线性系数来指示投影方向。PCA对原始数据的正则化或预处理敏感(相对缩放)。 基本思想: * 将坐标轴中心移到数据的中心,然后旋转坐标轴,使得数据在C1轴上的方差最大,即全部n个数据个体在该方向上的投影最为分散。意味着更多的信息被保留下来。C1成为第一主成分。 * C2第二主成分:找一个C2,使得C2与C1的协方差(相关系数)为0,以免与C1信息重叠,并且使数据在该方向的方差尽量最大。 * 以此类推,找到第三主成分,第四主成分……第p个主成分。p个随机变量可以有p个主成分。 主成分分析经常用于减少数据集的维数,同时保留数据集當中对方差贡献最大的特征。这是通过保留低維主成分,忽略高維主成分做到的。这样低維成分往往能够保留住数据的最重要部分。但是,这也不是一定的,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大。,要视具体应用而定。由于主成分分析依赖所给数据,所以数据的准确性对分析结果影响很大。 , L'analyse en composantes principales (ACP L'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux. Elle permet au statisticien de résumer l'information en réduisant le nombre de variables.ation en réduisant le nombre de variables. , تحليل العنصر الرئيسي أو التحليل عبر المركبتحليل العنصر الرئيسي أو التحليل عبر المركبات الرئيسية (بالإنجليزية: Principal component analysis)‏ هي عملية رياضيّة تنتمي إلى شعبة تحليل البيانات، و التي تتمثل في تحويل عدد من المتغيرات المترابطة إلى عدد أقل من المتغيرات غير المترابطة. المتغيرات الناتجة عن عملية التحويل تسمى بالمركبات (أو المكونات أو المحاور) الرئيسية. القيمة المضافة للعملية هي تسهيل تأويل المعطيات المعقدة، عبر تمكين الباحث والإحصائي من تحقيق أمثل توافق بين التقليل من عدد المتغيرات الواصفة للمعطيات، و فقدان المعلومة الأصلية (التباين) الناتج عن اختزال الأبعاد الأصلية.التباين) الناتج عن اختزال الأبعاد الأصلية. , Analýza hlavních komponent (Principal CompAnalýza hlavních komponent (Principal Component Analysis, PCA) je v teorii signálu transformace sloužící k dekorelaci dat. Často se používá ke snížení dimenze dat s co nejmenší ztrátou informace. PCA je možno najít také jako Karhunen-Loèveho transformaci, Hotellingovu transformaci, nebo jako singulární rozklad (SVD; v lineární algebře). Z následujícího vzorce je vidět, že PCA je jen přepsáním vstupu do jiné souřadné soustavy: Vlastní vektory (sloupce matice P) tvoří onu novou souřadnou soustavu.Centrování matice X dosáhneme odečtením příslušného výběrového průměru od každého sloupce.ého výběrového průměru od každého sloupce. , Principal component analysis (PCA) is a poPrincipal component analysis (PCA) is a popular technique for analyzing large datasets containing a high number of dimensions/features per observation, increasing the interpretability of data while preserving the maximum amount of information, and enabling the visualization of multidimensional data. Formally, PCA is a statistical technique for reducing the dimensionality of a dataset. This is accomplished by linearly transforming the data into a new coordinate system where (most of) the variation in the data can be described with fewer dimensions than the initial data. Many studies use the first two principal components in order to plot the data in two dimensions and to visually identify clusters of closely related data points. Principal component analysis has applications in many fields sanalysis has applications in many fields s , L'anàlisi de components principals (ACP, PL'anàlisi de components principals (ACP, PCA en anglès), en estadística, és una tècnica utilitzada per reduir la dimensionalitat d'un conjunt de dades per a poder-les representar gràficament en gràfics de dues o tres dimensions agrupant diverses variables de les dades en factors, o components, compostos per l'agrupació de diverses variables. Intuïtivament, la tècnica serveix per determinar el nombre de factors explicatius d'un conjunt de dades que determinen en major grau la d'aquestes dades. L'ACP és útil per identificar les variables responsables de causar una falla o les variables més afectades per la falla. les variables més afectades per la falla. , En estadística, el análisis de componentesEn estadística, el análisis de componentes principales (en español ACP, en inglés, PCA) es una técnica utilizada para describir un conjunto de datos en términos de nuevas variables («componentes») no correlacionadas. Los componentes se ordenan por la cantidad de varianza original que describen, por lo que la técnica es útil para reducir la dimensionalidad de un conjunto de datos. Debe diferenciarse del análisis factorial con el que tiene similitudes formales y en el cual puede ser utilizado como un método de aproximación para la extracción de factores.roximación para la extracción de factores. , , osagai nagusien analisia (ONA) edo Princ, osagai nagusien analisia (ONA) edo Principal Components Analysis (PCA) elkarrekiko independenteak eta ergodikoak den aldagai multzo edo osagai multzo batetik bariantzarik gabeko aldagai kopuru bat osatzea da,, hasierako osagaien korrelazioa agerian uzteko helburuarekin. Horretarako korrelazio matrizea hartu eta bariantza minimotzen da, puntuek osagaietan dituzten puntuazioak atera asmoz eta horrela egitura hobeto ikusteko. Zehatzago: , minimotu behar da, non o osagaiak diren., minimotu behar da, non o osagaiak diren.
rdfs:label Hauptkomponentenanalyse , 主成分分析 , 주성분 분석 , Osagai nagusien analisi , Análisis de componentes principales , Principalkomponentanalys , Analýza hlavních komponent , Analiza głównych składowych , Análise de componentes principais , Analisis komponen utama , Analizo al precipaj konsisteroj , Метод главных компонент , Principal component analysis , Hoofdcomponentenanalyse , Analisi delle componenti principali , Anàlisi de components principals , Analyse en composantes principales , تحليل العنصر الرئيسي , Метод головних компонент
rdfs:seeAlso http://dbpedia.org/resource/Portfolio_optimization +
hide properties that link here 
http://dbpedia.org/resource/PCA + , http://dbpedia.org/resource/Component_analysis + http://dbpedia.org/ontology/wikiPageDisambiguates
http://dbpedia.org/resource/Principal_components_analysis + , http://dbpedia.org/resource/Principal_component + , http://dbpedia.org/resource/Non-linear_iterative_partial_least_squares + , http://dbpedia.org/resource/Principal_Component_Analysis + , http://dbpedia.org/resource/Principal_components + , http://dbpedia.org/resource/Principle_component_analysis + , http://dbpedia.org/resource/Conditional_principal_components_analysis + , http://dbpedia.org/resource/Principle_Component_Analysis + , http://dbpedia.org/resource/Nonlinear_iterative_partial_least_squares + , http://dbpedia.org/resource/Principal_Components_Analysis + , http://dbpedia.org/resource/Hotelling_transform + , http://dbpedia.org/resource/Characteristic_vector_analysis + , http://dbpedia.org/resource/Eigenimage + , http://dbpedia.org/resource/KL_transform + , http://dbpedia.org/resource/NIPALS + , http://dbpedia.org/resource/Principal-component_analysis + , http://dbpedia.org/resource/Principal-components_analysis + , http://dbpedia.org/resource/Principal_component_analyses + , http://dbpedia.org/resource/Principle_components + , http://dbpedia.org/resource/Principle_components_analysis + , http://dbpedia.org/resource/Probabilistic_principal_component_analysis + , http://dbpedia.org/resource/Eigenvector_analysis + http://dbpedia.org/ontology/wikiPageRedirects
http://dbpedia.org/resource/Maniots + , http://dbpedia.org/resource/Singular_value_decomposition + , http://dbpedia.org/resource/Dimensionality_reduction + , http://dbpedia.org/resource/Covariance_matrix + , http://dbpedia.org/resource/Portfolio_optimization + , http://dbpedia.org/resource/Metabolomics + , http://dbpedia.org/resource/Feature_extraction + , http://dbpedia.org/resource/Types_of_artificial_neural_networks + , http://dbpedia.org/resource/Population_structure_%28genetics%29 + , http://dbpedia.org/resource/Human_genetic_clustering + , http://dbpedia.org/resource/Image_fusion + , http://dbpedia.org/resource/Collaborative_filtering + , http://dbpedia.org/resource/Modulo_operation + , http://dbpedia.org/resource/Independent_component_analysis + , http://dbpedia.org/resource/Raman_Tool_Set + , http://dbpedia.org/resource/Constellation_model + , http://dbpedia.org/resource/Gaussian_network_model + , http://dbpedia.org/resource/Animal_cognition + , http://dbpedia.org/resource/Principal_components_analysis + , http://dbpedia.org/resource/Range_imaging + , http://dbpedia.org/resource/Landscape_genetics + , http://dbpedia.org/resource/EEG_microstates + , http://dbpedia.org/resource/Multidimensional_empirical_mode_decomposition + , http://dbpedia.org/resource/Common_spatial_pattern + , http://dbpedia.org/resource/Matching_pursuit + , http://dbpedia.org/resource/Sparse_dictionary_learning + , http://dbpedia.org/resource/Grape_seed_extract + , http://dbpedia.org/resource/Crowdsourcing + , http://dbpedia.org/resource/Facial_recognition_system + , http://dbpedia.org/resource/Principal_component_regression + , http://dbpedia.org/resource/Linear_predictor_function + , http://dbpedia.org/resource/Partial_least_squares_regression + , http://dbpedia.org/resource/WHO-CHOICE + , http://dbpedia.org/resource/Sociomapping + , http://dbpedia.org/resource/Genetic_studies_on_Croats + , http://dbpedia.org/resource/Genetic_studies_on_Serbs + , http://dbpedia.org/resource/Non-negative_matrix_factorization + , http://dbpedia.org/resource/The_Vectors_of_Mind + , http://dbpedia.org/resource/Parallel_analysis + , http://dbpedia.org/resource/Varimax_rotation + , http://dbpedia.org/resource/Scale_%28social_sciences%29 + , http://dbpedia.org/resource/Multivariate_statistics + , http://dbpedia.org/resource/Projection_pursuit + , http://dbpedia.org/resource/Annoyance_factor + , http://dbpedia.org/resource/Repertory_grid + , http://dbpedia.org/resource/Analyse-it + , http://dbpedia.org/resource/Estimation_of_covariance_matrices + , http://dbpedia.org/resource/Low-rank_approximation + , http://dbpedia.org/resource/Glossary_of_probability_and_statistics + , http://dbpedia.org/resource/Correspondence_analysis + , http://dbpedia.org/resource/Functional_principal_component_analysis + , http://dbpedia.org/resource/Persona_%28user_experience%29 + , http://dbpedia.org/resource/G_factor_in_non-humans + , http://dbpedia.org/resource/Latent_semantic_analysis + , http://dbpedia.org/resource/RNA-Seq + , http://dbpedia.org/resource/Granular_computing + , http://dbpedia.org/resource/Hydrological_model + , http://dbpedia.org/resource/Tucker_decomposition + , http://dbpedia.org/resource/Idea_networking + , http://dbpedia.org/resource/Lothian_birth-cohort_studies + , http://dbpedia.org/resource/Multiple_correspondence_analysis + , http://dbpedia.org/resource/Factorial_code + , http://dbpedia.org/resource/List_of_statistics_articles + , http://dbpedia.org/resource/Empathy_quotient + , http://dbpedia.org/resource/Chemical_imaging + , http://dbpedia.org/resource/Land_cover_maps + , http://dbpedia.org/resource/OpenChrom + , http://dbpedia.org/resource/FitIt + , http://dbpedia.org/resource/Solvent + , http://dbpedia.org/resource/Fault_detection_and_isolation + , http://dbpedia.org/resource/Human_genetic_variation + , http://dbpedia.org/resource/Genetic_history_of_East_Asians + , http://dbpedia.org/resource/Data_fusion + , http://dbpedia.org/resource/Wegman_Report + , http://dbpedia.org/resource/North_Report + , http://dbpedia.org/resource/Tag_SNP + , http://dbpedia.org/resource/Apache_SystemDS + , http://dbpedia.org/resource/Trajectory_inference + , http://dbpedia.org/resource/Graciela_Boente + , http://dbpedia.org/resource/Mia_Hubert + , http://dbpedia.org/resource/PC%C2%B2 + , http://dbpedia.org/resource/Premovement_neuronal_activity + , http://dbpedia.org/resource/Matrix-assisted_laser_desorption_electrospray_ionization + , http://dbpedia.org/resource/Quantitative_Descriptive_Analysis + , http://dbpedia.org/resource/Palestinians + , http://dbpedia.org/resource/Finance + , http://dbpedia.org/resource/Bosniaks + , http://dbpedia.org/resource/Additive_synthesis + , http://dbpedia.org/resource/Histogram_of_oriented_gradients + , http://dbpedia.org/resource/Achenbach_System_of_Empirically_Based_Assessment + , http://dbpedia.org/resource/Linear_regression + , http://dbpedia.org/resource/Least_squares + , http://dbpedia.org/resource/Financial_risk_management + , http://dbpedia.org/resource/Scale-invariant_feature_transform + , http://dbpedia.org/resource/Nearest_neighbor_search + , http://dbpedia.org/resource/Locality-sensitive_hashing + , http://dbpedia.org/resource/Inflammatory_demyelinating_diseases_of_the_central_nervous_system + , http://dbpedia.org/resource/Hi-C_%28genomic_analysis_technique%29 + , http://dbpedia.org/resource/DNA_phenotyping + , http://dbpedia.org/resource/Flow_cytometry_bioinformatics + , http://dbpedia.org/resource/ScGET-seq + , http://dbpedia.org/resource/California_Report_Card + , http://dbpedia.org/resource/Dalea_searlsiae + , http://dbpedia.org/resource/Primate_cognition + , http://dbpedia.org/resource/Brown-cheeked_fulvetta + , http://dbpedia.org/resource/Principal_component + , http://dbpedia.org/resource/Nonlinear_dimensionality_reduction + , http://dbpedia.org/resource/Dikelocephalus + , http://dbpedia.org/resource/ArrayTrack + , http://dbpedia.org/resource/Reverse_image_search + , http://dbpedia.org/resource/Non-linear_iterative_partial_least_squares + , http://dbpedia.org/resource/Isomap + , http://dbpedia.org/resource/YCoCg + , http://dbpedia.org/resource/Data_analysis + , http://dbpedia.org/resource/Greeks + , http://dbpedia.org/resource/Machine_learning + , http://dbpedia.org/resource/Financial_economics + , http://dbpedia.org/resource/Karl_Pearson + , http://dbpedia.org/resource/Distributed_temperature_sensing + , http://dbpedia.org/resource/Weld_quality_assurance + , http://dbpedia.org/resource/Sparse_distributed_memory + , http://dbpedia.org/resource/NeuroSolutions + , http://dbpedia.org/resource/Extreme_learning_machine + , http://dbpedia.org/resource/List_of_research_universities_in_the_United_States + , http://dbpedia.org/resource/Radar_chart + , http://dbpedia.org/resource/SmartPLS + , http://dbpedia.org/resource/ELKI + , http://dbpedia.org/resource/WarpPLS + , http://dbpedia.org/resource/Soft_independent_modelling_of_class_analogies + , http://dbpedia.org/resource/Exploratory_data_analysis + , http://dbpedia.org/resource/Kernel_principal_component_analysis + , http://dbpedia.org/resource/Data_and_information_visualization + , http://dbpedia.org/resource/Iris_flower_data_set + , http://dbpedia.org/resource/Genome-wide_complex_trait_analysis + , http://dbpedia.org/resource/Local_pixel_grouping + , http://dbpedia.org/resource/Matrix_decomposition + , http://dbpedia.org/resource/Media_linguistics + , http://dbpedia.org/resource/Quantum_clustering + , http://dbpedia.org/resource/Glossary_of_artificial_intelligence + , http://dbpedia.org/resource/DNA_history_of_Egypt + , http://dbpedia.org/resource/Genetic_history_of_the_Middle_East + , http://dbpedia.org/resource/Genetic_history_of_Europe + , http://dbpedia.org/resource/Apache_Spark + , http://dbpedia.org/resource/Psychological_statistics + , http://dbpedia.org/resource/Photoplethysmogram + , http://dbpedia.org/resource/Archimedes_Palimpsest + , http://dbpedia.org/resource/Richard_A._Muller + , http://dbpedia.org/resource/White_noise + , http://dbpedia.org/resource/Latent_and_observable_variables + , http://dbpedia.org/resource/Surprisal_analysis + , http://dbpedia.org/resource/Discriminative_model + , http://dbpedia.org/resource/Remote_sensing_%28geology%29 + , http://dbpedia.org/resource/Eric_V._Anslyn + , http://dbpedia.org/resource/Peter_Rousseeuw + , http://dbpedia.org/resource/Split_normal_distribution + , http://dbpedia.org/resource/Ewin_Tang + , http://dbpedia.org/resource/PLINK_%28genetic_tool-set%29 + , http://dbpedia.org/resource/PCA + , http://dbpedia.org/resource/Vietnamese_people + , http://dbpedia.org/resource/Brassicasterol + , http://dbpedia.org/resource/Genetics_and_archaeogenetics_of_South_Asia + , http://dbpedia.org/resource/Online_machine_learning + , http://dbpedia.org/resource/Machine_learning_in_bioinformatics + , http://dbpedia.org/resource/Topological_data_analysis + , http://dbpedia.org/resource/Matrix_completion + , http://dbpedia.org/resource/Singular_spectrum_analysis + , http://dbpedia.org/resource/Hans_von_Storch + , http://dbpedia.org/resource/Asteroid_spectral_types + , http://dbpedia.org/resource/Cluster_analysis + , http://dbpedia.org/resource/Unsupervised_learning + , http://dbpedia.org/resource/RV_coefficient + , http://dbpedia.org/resource/Hockey_stick_graph_%28global_temperature%29 + , http://dbpedia.org/resource/Feature_learning + , http://dbpedia.org/resource/CUR_matrix_approximation + , http://dbpedia.org/resource/Anatolian_hunter-gatherers + , http://dbpedia.org/resource/Tatuidris + , http://dbpedia.org/resource/Affinity_propagation + , http://dbpedia.org/resource/Model_order_reduction + , http://dbpedia.org/resource/Luskhan + , http://dbpedia.org/resource/L1-norm_principal_component_analysis + , http://dbpedia.org/resource/Mlpy + , http://dbpedia.org/resource/Proper_orthogonal_decomposition + , http://dbpedia.org/resource/Regularization_by_spectral_filtering + , http://dbpedia.org/resource/Random_projection + , http://dbpedia.org/resource/Sequence_space_%28evolution%29 + , http://dbpedia.org/resource/PCoA + , http://dbpedia.org/resource/PC1 + , http://dbpedia.org/resource/Adaptive_coordinate_descent + , http://dbpedia.org/resource/Tasseled_cap_transformation + , http://dbpedia.org/resource/Dynamic_mode_decomposition + , http://dbpedia.org/resource/Factor_analysis + , http://dbpedia.org/resource/Analytic_hierarchy_process + , http://dbpedia.org/resource/Biological_motion_perception + , http://dbpedia.org/resource/Virtual_humans + , http://dbpedia.org/resource/One-shot_learning + , http://dbpedia.org/resource/Sammon_mapping + , http://dbpedia.org/resource/Decision_tree_learning + , http://dbpedia.org/resource/Chemical_sensor_array + , http://dbpedia.org/resource/Eigenvalues_and_eigenvectors + , http://dbpedia.org/resource/List_of_MeSH_codes_%28H01%29 + , http://dbpedia.org/resource/Race_and_genetics + , http://dbpedia.org/resource/Linear_discriminant_analysis + , http://dbpedia.org/resource/Covariance + , http://dbpedia.org/resource/Canonical_correlation + , http://dbpedia.org/resource/Michael_E._Mann + , http://dbpedia.org/resource/Dialogical_self + , http://dbpedia.org/resource/Artificial_neuron + , http://dbpedia.org/resource/Ali_Akansu + , http://dbpedia.org/resource/Principal_Component_Analysis + , http://dbpedia.org/resource/Generalized_canonical_correlation + , http://dbpedia.org/resource/Confirmatory_composite_analysis + , http://dbpedia.org/resource/Sufficient_dimension_reduction + , http://dbpedia.org/resource/Biplot + , http://dbpedia.org/resource/Multilinear_principal_component_analysis + , http://dbpedia.org/resource/Space-time_adaptive_processing + , http://dbpedia.org/resource/Explained_variation + , http://dbpedia.org/resource/Kosambi%E2%80%93Karhunen%E2%80%93Lo%C3%A8ve_theorem + , http://dbpedia.org/resource/Principal_components + , http://dbpedia.org/resource/Total_least_squares + , http://dbpedia.org/resource/Maltese_people + , http://dbpedia.org/resource/Mathematical_finance + , http://dbpedia.org/resource/Nonlinear_system_identification + , http://dbpedia.org/resource/Time_series + , http://dbpedia.org/resource/Eigenface + , http://dbpedia.org/resource/Multilinear_subspace_learning + , http://dbpedia.org/resource/Principle_component_analysis + , http://dbpedia.org/resource/Condensation_algorithm + , http://dbpedia.org/resource/Phong_reflection_model + , http://dbpedia.org/resource/Diffusion_map + , http://dbpedia.org/resource/Robust_principal_component_analysis + , http://dbpedia.org/resource/Facial_motion_capture + , http://dbpedia.org/resource/Outline_of_machine_learning + , http://dbpedia.org/resource/Anoura + , http://dbpedia.org/resource/Tapanuli_orangutan + , http://dbpedia.org/resource/Autoencoder + , http://dbpedia.org/resource/Expectation%E2%80%93maximization_algorithm + , http://dbpedia.org/resource/LOBPCG + , http://dbpedia.org/resource/Point_distribution_model + , http://dbpedia.org/resource/3D_sound_synthesis + , http://dbpedia.org/resource/Tropical_Atlantic_SST_Dipole + , http://dbpedia.org/resource/Phylogenetic_inertia + , http://dbpedia.org/resource/Artemia_parthenogenetica + , http://dbpedia.org/resource/Peter_Greig-Smith + , http://dbpedia.org/resource/List_of_Bioacoustics_Software + , http://dbpedia.org/resource/Sparse_PCA + , http://dbpedia.org/resource/Dark_Triad_Dirty_Dozen + , http://dbpedia.org/resource/Principal_geodesic_analysis + , http://dbpedia.org/resource/Test_construction_strategies + , http://dbpedia.org/resource/Conditional_principal_components_analysis + , http://dbpedia.org/resource/Principle_Component_Analysis + , http://dbpedia.org/resource/Nonlinear_iterative_partial_least_squares + , http://dbpedia.org/resource/ZCA + , http://dbpedia.org/resource/Component_analysis + , http://dbpedia.org/resource/Principal_Components_Analysis + , http://dbpedia.org/resource/Hotelling_transform + , http://dbpedia.org/resource/Characteristic_vector_analysis + , http://dbpedia.org/resource/Eigenimage + , http://dbpedia.org/resource/KL_transform + , http://dbpedia.org/resource/NIPALS + , http://dbpedia.org/resource/Principal-component_analysis + , http://dbpedia.org/resource/Principal-components_analysis + , http://dbpedia.org/resource/Principal_component_analyses + , http://dbpedia.org/resource/Principle_components + , http://dbpedia.org/resource/Principle_components_analysis + , http://dbpedia.org/resource/Probabilistic_principal_component_analysis + , http://dbpedia.org/resource/Harold_Hotelling + , http://dbpedia.org/resource/History_of_statistics + , http://dbpedia.org/resource/Neolithic_Greece + , http://dbpedia.org/resource/Face_space + , http://dbpedia.org/resource/Mayan_genetics + , http://dbpedia.org/resource/Quantile_regression_averaging + , http://dbpedia.org/resource/Whitening_transformation + , http://dbpedia.org/resource/Multiple_factor_analysis + , http://dbpedia.org/resource/Numerical_analysis + , http://dbpedia.org/resource/Curse_of_dimensionality + , http://dbpedia.org/resource/Copts + , http://dbpedia.org/resource/Analytics + , http://dbpedia.org/resource/Regime_shift + , http://dbpedia.org/resource/Computer-aided_diagnosis + , http://dbpedia.org/resource/Statistical_shape_analysis + , http://dbpedia.org/resource/Functional_genomics + , http://dbpedia.org/resource/Outline_of_statistics + , http://dbpedia.org/resource/Chemometrics + , http://dbpedia.org/resource/Single-cell_transcriptomics + , http://dbpedia.org/resource/Spatially_offset_Raman_spectroscopy + , http://dbpedia.org/resource/Eigenvector_analysis + , http://dbpedia.org/resource/Morphometrics + , http://dbpedia.org/resource/Analysis + , http://dbpedia.org/resource/Degrees_of_freedom_problem + , http://dbpedia.org/resource/Outline_of_finance + , http://dbpedia.org/resource/Edward_Trifonov + , http://dbpedia.org/resource/JASP + , http://dbpedia.org/resource/MaxStat + , http://dbpedia.org/resource/ADaMSoft + , http://dbpedia.org/resource/The_Unscrambler + , http://dbpedia.org/resource/Manidens + , http://dbpedia.org/resource/Peter_Richtarik + , http://dbpedia.org/resource/Pansharpened_image + , http://dbpedia.org/resource/Phycotoxin + , http://dbpedia.org/resource/Kari_Karhunen + , http://dbpedia.org/resource/Codon_usage_bias + , http://dbpedia.org/resource/Eran_Elhaik + , http://dbpedia.org/resource/Pump%E2%80%93probe_microscopy + , http://dbpedia.org/resource/Laser_Doppler_imaging + , http://dbpedia.org/resource/Elastic_map + , http://dbpedia.org/resource/England_and_Wales_Precipitation + , http://dbpedia.org/resource/METAGENassist + , http://dbpedia.org/resource/Partial_least_squares_path_modeling + , http://dbpedia.org/resource/Mondrian_%28software%29 + , http://dbpedia.org/resource/Modes_of_variation + , http://dbpedia.org/resource/Relationship_square + http://dbpedia.org/ontology/wikiPageWikiLink
http://en.wikipedia.org/wiki/Principal_component_analysis + http://xmlns.com/foaf/0.1/primaryTopic
http://dbpedia.org/resource/Component_analysis_%28statistics%29 + owl:differentFrom
http://dbpedia.org/resource/Principal_component_analysis + owl:sameAs
http://dbpedia.org/resource/Factor_analysis + rdfs:seeAlso
 

 

Enter the name of the page to start semantic browsing from.