Analisi delle componenti principali

Nessuna nota a piè di pagina
Questa voce o sezione sull'argomento statistica è priva o carente di note e riferimenti bibliografici puntuali.
Esempio di PCA. I vettori indicati sono gli autovettori della matrice di covarianza.

L'analisi delle componenti principali (in inglese principal component analysis o abbreviata PCA), anche nota come trasformata di Karhunen-Loève[1], è una tecnica per la semplificazione dei dati utilizzata nell'ambito della statistica multivariata.[2] Questo metodo fu proposto per la prima volta nel 1901 da Karl Pearson e sviluppato poi da Harold Hotelling nel 1933, e fa parte dell'analisi fattoriale. La tecnica, esempio di riduzione della dimensionalità, ha lo scopo di ridurre il numero più o meno elevato di variabili che descrivono un insieme di dati a un numero minore di variabili latenti, limitando il più possibile la perdita di informazioni.[2]

Risoluzione lineare

Ciò avviene tramite una trasformazione lineare delle variabili che proietta quelle originarie in un nuovo sistema cartesiano in cui la nuova variabile con la maggiore varianza viene proiettata sul primo asse, la variabile nuova, seconda per dimensione della varianza, sul secondo asse e così via.

La riduzione della complessità avviene limitandosi ad analizzare le principali, per varianza, tra le nuove variabili.

Diversamente da altre trasformazioni lineari di variabili praticate nell'ambito della statistica, in questa tecnica sono gli stessi dati che determinano i vettori di trasformazione.

Assumendo che a ciascuna delle variabili originarie venga sottratta la loro media e pertanto la nuova variabile ( X i ) {\displaystyle (X_{i})} abbia media nulla,

w 1 = arg m a x w = 1 E { ( w T x ) 2 } {\displaystyle \mathbf {w} _{1}={\underset {\Vert \mathbf {w} \Vert =1}{\operatorname {\arg \,max} }}\,E\left\{\left(\mathbf {w} ^{T}\mathbf {x} \right)^{2}\right\}}

dove arg max indica l'insieme degli argomenti w {\displaystyle w} in cui è raggiunto il massimo. Con le prime k 1 {\displaystyle k-1} componenti, la k {\displaystyle k} -esima componente può essere trovata sottraendo le prime k 1 {\displaystyle k-1} componenti principali a X {\displaystyle X} :

x ^ k = x i = 1 k 1 w i w i T x {\displaystyle \mathbf {\hat {x}} _{k}=\mathbf {x} -\sum _{i=1}^{k-1}\mathbf {w} _{i}\mathbf {w} _{i}^{T}\mathbf {x} }

e sostituendo questo

w k = a r g m a x w = 1 E { ( w T x ^ k 1 ) 2 } {\displaystyle \mathbf {w} _{k}={\underset {\Vert \mathbf {w} \Vert =1}{\operatorname {arg\,max} }}\,E\left\{\left(\mathbf {w} ^{T}\mathbf {\hat {x}} _{k-1}\right)^{2}\right\}}

Risoluzione matriciale

Un metodo più semplice per calcolare la componente w i {\displaystyle \mathbf {w} _{i}} utilizza la matrice delle covarianze di x i {\displaystyle \mathbf {x} _{i}} . La stessa operazione può essere eseguita partendo dalla matrice dei coefficienti di correlazione anziché dalla matrice di varianza-covarianza delle variabili x {\displaystyle x} .

Innanzitutto si devono trovare gli autovalori della matrice di covarianza o della matrice dei coefficienti di correlazione. Si ottengono tanti autovalori quante sono le variabili x {\displaystyle \mathbf {x} } . Se viene utilizzata la matrice di correlazione, l'autovalore relativo alla prima componente principale, ossia quella con varianza massima, sarà pari a 1 {\displaystyle 1} . In ogni caso l'autovalore con il maggiore valore corrisponde alla dimensione w {\displaystyle \mathbf {w} } che ha la maggiore varianza: esso sarà dunque la varianza della componente principale 1. In ordine decrescente, il secondo autovalore sarà la varianza della componente principale 2, e così via per gli n autovalori. Per ciascun autovalore viene calcolato il corrispondente autovettore, ossia la matrice (riga vettore) dei coefficienti che moltiplicano le vecchie variabili x {\displaystyle \mathbf {x} } nella combinazione lineare per l'ottenimento delle nuove variabili w {\displaystyle \mathbf {w} } . Questi coefficienti sono anche definiti loading. La matrice degli autovettori, ossia la matrice che ha per riga ciascun autovettore prima calcolato, è la cosiddetta matrice di rotazione V {\displaystyle V} . Eseguendo l'operazione matriciale W = V X {\displaystyle W=V\cdot X} , dove W {\displaystyle W} è il vettore colonna avente come elementi le nuove variabili w 1 , w 2 , , w n {\displaystyle w_{1},\,w_{2},\,\ldots ,\,w_{n}} e X {\displaystyle X} è il vettore colonna avente come elementi le "vecchie variabili" x 1 , x 2 , , x n {\displaystyle x_{1},\,x_{2},\,\ldots ,\,x_{n}} , si possono trovare le coordinate di ciascun punto nel nuovo spazio vettoriale. Utilizzando le coordinate per ciascun punto relative alle componenti principali si costruisce il grafico denominato score plot. Se le componenti principali sono 3 si avrà un grafico tridimensionale, se sono 2 sarà bidimensionale, se invece si è scelta una sola componente principale lo score plot sarà allora monodimensionale. Mediante lo score plot è possibile verificare quali dati sono simili tra di loro e quindi si può ad esempio dedurre quali campioni presentano la medesima composizione.

In PCA esiste anche un altro tipo di grafico, definito loading plot, in cui sono le variabili x {\displaystyle x} ad essere riportate nel nuovo sistema avente per assi le componenti principali. Con questo tipo di grafico è possibile osservare se due variabili sono simili, e pertanto forniscono lo stesso tipo di informazione, oppure se sono distanti (e quindi non sono simili).

Quindi gli elementi dell'autovettore colonna corrispondente a un autovalore esprimono il legame tra le variabili di partenza e la componente considerata attraverso dei pesi. Il numero di variabili latenti da considerare come componenti principali si fonda sulla grandezza relativa di un autovalore rispetto agli altri. Invece nel caso in cui sia l'operatore a scegliere le componenti principali senza considerare la relativa varianza espressa dai rispettivi autovalori, si ha un supervised pattern recognition.

Si può costruire la matrice dei fattori, in pratica una matrice modale, che elenca per riga le variabili originarie e per colonna le variabili latenti: ogni valore, compreso tra 0 e 1, dice quanto le seconde incidano sulle prime.

Invece la matrice del punteggio fattoriale ha la stessa struttura della precedente, ma dice quanto le singole variabili originarie abbiano pesato sulla determinazione della grandezza di quelle latenti.

Esempio

Si supponga di disporre di un'indagine che riporta per 10 soggetti: voto medio (da 0 a 33), intelligenza (da 0 a 10), media ore studiate in un giorno e zona d'origine, che varia da 1 a 3. Si standardizzino i valori con la formula:

z = X i E ( X ) S D {\displaystyle z={\frac {Xi-E(X)}{SD}}}

dove E ( x ) {\displaystyle E(x)} è il valore atteso di X {\displaystyle X} , ovvero il valor medio, S D {\displaystyle SD} è la deviazione standard.

La matrice dei coefficienti di correlazione è:

Zscore (Voto medio) Zscore (Intelligenza) Zscore (Provenienza) Zscore (Media ore di studio)
Zscore (Voto medio) 1,000 0,600 -0,838 0,788
Zscore (Intelligenza) 0,600 1,000 -0,222 0,022
Zscore (Provenienza) -0,838 -0,222 1,000 -0,918
Zscore (Media ore di studio) 0,788 0,022 -0,918 1,000


La diagonale principale è composta da valori uguali ad 1 {\displaystyle 1} perché è il coefficiente di correlazione di una variabile con se stessa. È pure una matrice simmetrica perché il coefficiente di correlazione tra la variabile x {\displaystyle x} e la variabile y {\displaystyle y} è uguale a quello tra y {\displaystyle y} e x {\displaystyle x} . Si vede come ci sia un forte legame tra voto, media ore studio e intelligenza.

Dall'analisi degli autovalori si possono trarre conclusioni:

Componente Autovalori iniziali Extraction sums of squared loadings
Totale Varianza % % Cumulative Totale Varianza % % Cumulative
1 2,828 70,708 70,708 2,828 70,708 70,708
2 1,070 26,755 97,463 1,070 26,755 97,496
3 0,084 2,088 99,551
4 0,018 -0,449 100,000

Gli autovalori sono in ordine decrescente e il loro rapporto con la somma degli autovalori dà la percentuale di varianza che rappresentano. Sono stati selezionati arbitrariamente solo quelli che hanno valore maggiore di 1 {\displaystyle 1} in quanto più significativi, che spiegano il 70,708% e il 26,755% rispettivamente.

Si osservi la matrice delle componenti principali:

Componente
1 2
Zscore (Voto medio) 0,966 0,204
Zscore (Intelligenza) 0,442 0,894
Zscore (Provenienza) -0,947 0,228
Zscore (Media ore di studio) 0,897 -0,420

Il fattore 1 pesa fortemente sul voto medio. Sembrerebbe pure che pesi in maniera negativa sulla variabile della zona di origine; chiaramente questa affermazione non ha senso perché inverte il nesso di causalità: spetta allo statistico dare una spiegazione e una lettura sensate.

Si calcoli quindi la matrice di punteggio fattoriale:

Componente
1 2
Zscore (Voto medio) 0,341 0,191
Zscore (Intelligenza) 0,156 0,836
Zscore (Provenienza) -0,335 0,213
Zscore (Media ore di studio) 0,317 -0,392

Come si vede la variabile provenienza continua ad avere un influsso di segno negativo sull'autovalore principale. Le altre variabili invece hanno peso positivo.

Note

  1. ^ viene chiamata anche trasformata di Hotelling oppure decomposizione ortogonale propria
  2. ^ a b (EN) Stéphane Tufféry, Factor analysis, in Data mining and statistics for decision making, Wiley, 2011, pp. 175-180, ISBN 978-0-470-68829-8.

Bibliografia

  • Sergio Bolasco, Analisi multidimensionale dei dati. Metodi, strategie e criteri d'interpretazione, 6ª ed., Roma, Carocci, 2014 [1999], ISBN 88-430-1401-3.
  • Roberto Todeschini, Introduzione alla chemiometria, 1ª ed., Napoli, EdiSES, 2003, ISBN 88-7959-146-0.
  • (EN) Stéphane Tufféry, Data mining and statistics for decision making, Wiley, 2011, ISBN 978-0-470-68829-8.

Voci correlate

Altri progetti

Altri progetti

  • Wikimedia Commons
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file sull'analisi delle componenti principali
Controllo di autoritàThesaurus BNCF 52507 · LCCN (EN) sh85106729 · GND (DE) 4129174-8 · BNF (FR) cb11942895w (data) · J9U (ENHE) 987007536366205171
  Portale Informatica
  Portale Ingegneria
  Portale Statistica