Soit X la matrice expliquer et Y la matrice explicative.
Par procuste on a trois oprations :
Soit X la matrice ? expliquer et Y la matrice explicative.
Par procuste on a trois op?rations :
* translation (revient aligner les barycentres : centrer )
* translation (revient ? aligner les barycentres : centrer )
* chelle : homothtie
* ?chelle : homoth?tie
* rotation trouver l'angle qui minimise : mthode des moindres carrs
* rotation trouver l'angle qui minimise : m?thode des moindres carr?s
Seule contrainte de la mthode, la rotation doit tre effectue en dernier.
Seule contrainte de la m?thode, la rotation doit ?tre effectu?e en dernier.
On cherche : $$ Min|X-(1c'+\rho Y A)| $$
On se retrouve minimiser comme en relation linaire l'cart entre X notre tableau de donnes explicative et la transformation de la matrice Y (qui reprsente l'approximation en rgression linaire) :
On se retrouve ? minimiser comme en relation lin?aire l'?cart entre X notre tableau de donn?es explicative et la transformation de la matrice Y (qui repr?sente l'approximation en r?gression lin?aire) :
$$1c'+\rho Y A $$
avec $c'$ translation (centrage), $\rho$ chelle (normalisation), $A$ rotation
avec $c'$ translation (centrage), $\rho$ ?chelle (normalisation), $A$ rotation
D'un point de vue matriciel : il faut que A'A=I orthogonal, diag(A'A)=1
Les matrices centres de X et Y sont notes :
Les matrices centr?es de X et Y sont not?es :
$$\tilde{Y}, \tilde{X}$$
Dcomposition en valeur singulire : avec U'U=V'V=I
D?composition en valeur singuli?re : avec U'U=V'V=I
$$\tilde{X}' \tilde{Y}=U \Lambda V'$$
La matrice de rotation est donc estime par : $$\hat{A}=VU'$$
La matrice de rotation est donc estim?e par : $$\hat{A}=VU'$$
Paramtre d'chelle qui correspond c dans procruste :
Param?tre d'?chelle qui correspond ? c dans procruste :
## Estimation des coefficients lors d'une régression linéaire multiple (2 variables)
...
...
@@ -127,10 +127,81 @@ $$
{S^2_{x_2}S^2_{x_1}-S^2_{x_1x_2}}
$$
D'un point de vue matricielle, les coefficients des pentes peuvent s'écrire à partir des matrices de covariances des variables explicatives (X) et des covariances entre la matrice explicative (X) et et de la variable à expliquer Y:
## Calcul matriciel :
Soit $\tilde{\theta}(y)$ l'estimation des différentes paramètres de la régression multiple :
dans notre cas :
$$
\tilde{\theta}(y) = (\hat a_1, \hat a_2)
$$
En généralisant :
$$
\tilde{\theta}(y) = (X'X)^{-1}X'Y
$$
## Calcul matriciel : calculs de parts de variances expliquées d'un tableau Y à partir d'un tableau X explicatif
Soit Y la matrice à expliquer et X la matrice explicative.
Par procuste on a trois opérations :
* translation (revient à aligner les barycentres : centrer )
* échelle : homothétie
* rotation trouver l'angle qui minimise : méthode des moindres carrés
Seule contrainte de la méthode, la rotation doit être effectuée en dernier.
On cherche : $$ Min|Y-(1c'+\rho X A)| $$
On se retrouve à minimiser comme en relation linéaire l'écart entre X notre tableau de données explicative et la matrice Y (qui représente l'approximation en régression linéaire) :
$$1c'+\rho X A $$
avec $c'$ translation (centrage), $\rho$ échelle (normalisation), $A$ rotation
D'un point de vue matriciel : il faut que A'A=I orthogonal, diag(A'A)=1
Les matrices centrées de X et Y sont notées :
$$\tilde{Y}, \tilde{X}$$
Décomposition en valeur singulière : avec U'U=V'V=I
$$\tilde{Y}' \tilde{X} = U \Lambda V'$$
La matrice de rotation est donc estimée par : $$\hat{A}=VU'$$
Paramètre d'échelle qui correspond à c dans procruste :
Si on fait l'analogie avec la fonction programmée dans procrustre (équivalence : translation <=> b, échelle <=> c et rotation A) :
$$ Xrot = \hat{\rho} X A
\\
b = \overline{Y}-\hat{\rho}\overline{X} A
$$
Si la translation n'a pas encore été faite, on a :
$$Xrot = 1c'+ \hat{\rho} X A
\\
b = \overline{Y}-\hat{\rho}\overline{X} A
$$
Xrot est la nouvelle estimation de X qui a été transformé pour "être représenté dans la même base" que Y
Soit X la matrice à expliquer et Y la matrice explicative.
Et du coup la différence entre Xrot et Y représente la part non expliquée du tableau Y par X
$$
\sum(Y-X_{rot})^2 = SRC_{residuel}
$$
## Calcul matriciel : calculs de parts de variances expliquées d'un tableau Y à partir de deux tableaux X1 et X2 explicatifs
Soit Y la matrice à expliquer, X1 et X2 deux matrices explicatives.
Par procuste on a trois opérations :
* translation (revient à aligner les barycentres : centrer )
...
...
@@ -143,10 +214,69 @@ Par procuste on a trois opérations :
Seule contrainte de la méthode, la rotation doit être effectuée en dernier.
On cherche : $$ Min|X-(1c'+\rho Y A)| $$
On cherche : $$ Min|Y-[(1c_1'+\rho_1 X_1 A_1)+(1c_2'+\rho_2 X_2 A_2)]| $$
On se retrouve à minimiser comme en relation linéaire l'écart entre X1 et X2 nos tableaux de données explicatives et la matrice Y (qui représente l'approximation en régression linéaire) :
Si on fait l'analogie avec la fonction programmée dans procrustre (équivalence : translation <=> b, échelle <=> c et rotation A) :
$$
X_1rot = \hat{\rho_1} X_1 A_1
\\
X_2rot = \hat{\rho_2} X_2 A_2
\\
b = \overline{Y}-\hat{\rho_1}\overline{X_1} A_1 -\hat{\rho_2}\overline{X_2} A_2
$$
Si la translation n'a pas encore été faite, on a :
$$
X_1rot = 1c_1'+ \hat{\rho_1} X_1 A_1
\\
X_2rot = 1c_2'+ \hat{\rho_2} X_2 A_2
\\
b = \overline{Y}-\hat{\rho_1}\overline{X_1} A_1 -\hat{\rho_2}\overline{X_2} A_2
$$
X1rot et X2 rot sont les nouvelles estimations de X1 et X2 qui ont été transformé pour "être représenté dans la même base" que Y.
On se retrouve à minimiser comme en relation linéaire l'écart entre X notre tableau de données explicative et la transformation de la matrice Y (qui représente l'approximation en régression linéaire) :
$$1c'+\rho Y A $$
avec $c'$ translation (centrage), $\rho$ échelle (normalisation), $A$ rotation