Commit 84e846b0 by Christelle Melodelima

mes chagements

parent eb586502
Version: 1.0
RestoreWorkspace: Default
SaveWorkspace: Default
AlwaysSaveHistory: Default
EnableCodeIndexing: Yes
UseSpacesForTab: Yes
NumSpacesForTab: 2
Encoding: UTF-8
RnwWeave: Sweave
LaTeX: pdfLaTeX
BuildType: Package
PackageUseDevtools: Yes
PackageInstallArgs: --no-multiarch --with-keep.source
......@@ -283,12 +283,12 @@ xxx = myproc3(env.pca.li,bac.pco.li,euk.pco.li)
xxx
```
## Estimation des coefficients lors d'une rgression linaire multiple (2 variables)
## Estimation des coefficients lors d'une r?gression lin?aire multiple (2 variables)
$$ \hat{y}=a_1 x_1 + a_2 x_2 + b$$
On cherche minimiser l'erreur commise entre la prdiction et la vraie valeur (mthode des moindres carrs)
On cherche ? minimiser l'erreur commise entre la pr?diction et la vraie valeur (m?thode des moindres carr?s)
$$
\left\{
......@@ -298,7 +298,7 @@ $$
\end{array}
\right.
$$
Pour trouver les paramtres qui minimise cette fonction, on calcule les trois drives partielles et on les annule :
Pour trouver les param?tres qui minimise cette fonction, on calcule les trois d?riv?es partielles et on les annule :
$$
\left\{
......@@ -310,7 +310,7 @@ $$
\right.
$$
A partir de la dernire quation, on obtient :
A partir de la derni?re ?quation, on obtient :
$$
\overline{y}-a_1\overline{x_1}-a_2\overline{x_2}-b=0
......@@ -319,7 +319,7 @@ $$
$$
En remplaant dans la premire quation on obtient :
En rempla?ant dans la premi?re ?quation on obtient :
$$
\frac{\sum_i{x_{1,i}y_i}}{n}-a_1\frac{\sum_i{x_{1,i}^2}}{n}-a_2\frac{\sum_i{x_{1,i}x_{2,i}}}{n}-b\frac{\sum_i{x_{1,i}}}{n}=0
......@@ -336,7 +336,7 @@ S_{xy}-a_1S^{2}_{x_{1}}-a_2S_{x_1x_2}=0
\Leftrightarrow
\hat{a}_1=\frac{S_{x_1y}-a_2S_{x_1x_2}}{S^{2}_{x_{1}}}
$$
De la mme manire, on obtient :
De la m?me mani?re, on obtient :
$$
\hat{a}_2=\frac{S_{x_2y}-a_1S_{x_1x_2}}{S^{2}_{x_{2}}}
......@@ -392,56 +392,56 @@ $$
## Calcul matriciel :
Soit X la matrice expliquer et Y la matrice explicative.
Par procuste on a trois oprations :
Soit X la matrice ? expliquer et Y la matrice explicative.
Par procuste on a trois op?rations :
* translation (revient aligner les barycentres : centrer )
* translation (revient ? aligner les barycentres : centrer )
* chelle : homothtie
* ?chelle : homoth?tie
* rotation trouver l'angle qui minimise : mthode des moindres carrs
* rotation trouver l'angle qui minimise : m?thode des moindres carr?s
Seule contrainte de la mthode, la rotation doit tre effectue en dernier.
Seule contrainte de la m?thode, la rotation doit ?tre effectu?e en dernier.
On cherche : $$ Min|X-(1c'+\rho Y A)| $$
On se retrouve minimiser comme en relation linaire l'cart entre X notre tableau de donnes explicative et la transformation de la matrice Y (qui reprsente l'approximation en rgression linaire) :
On se retrouve ? minimiser comme en relation lin?aire l'?cart entre X notre tableau de donn?es explicative et la transformation de la matrice Y (qui repr?sente l'approximation en r?gression lin?aire) :
$$1c'+\rho Y A $$
avec $c'$ translation (centrage), $\rho$ chelle (normalisation), $A$ rotation
avec $c'$ translation (centrage), $\rho$ ?chelle (normalisation), $A$ rotation
D'un point de vue matriciel : il faut que A'A=I orthogonal, diag(A'A)=1
Les matrices centres de X et Y sont notes :
Les matrices centr?es de X et Y sont not?es :
$$\tilde{Y}, \tilde{X}$$
Dcomposition en valeur singulire : avec U'U=V'V=I
D?composition en valeur singuli?re : avec U'U=V'V=I
$$\tilde{X}' \tilde{Y}=U \Lambda V'$$
La matrice de rotation est donc estime par : $$\hat{A}=VU'$$
La matrice de rotation est donc estim?e par : $$\hat{A}=VU'$$
Paramtre d'chelle qui correspond c dans procruste :
Param?tre d'?chelle qui correspond ? c dans procruste :
$$\hat{\rho}=\frac{trace(\hat{A}\tilde{X}'\tilde{Y})}{trace(\tilde{Y}'\tilde{Y})}$$
Si on fait l'analogie avec la fonction programme dans procrustre (quivalence : translation <=> b, chelle <=> c et rotation A) :
Si on fait l'analogie avec la fonction programm?e dans procrustre (?quivalence : translation <=> b, ?chelle <=> c et rotation A) :
$$Yrot=\hat{\rho} Y A
\\
b=\overline{X}-\hat{\rho}\overline{Y} A
$$
? j'aurai plus tt crit, la translation a dj du tre faite dans procruste avant cette tape??
? j'aurai plus t?t ?crit, la translation a d?j? du ?tre faite dans procruste avant cette ?tape??
$$Yrot=1c'+ \hat{\rho} Y A
\\
b=\overline{X}-\hat{\rho}\overline{Y} A
$$
? Yrot est la nouvelle estimation de Y qui a t transform pour "tre reprsent dans la mme base" que X. ???
? Yrot est la nouvelle estimation de Y qui a ?t? transform? pour "?tre repr?sent? dans la m?me base" que X. ???
Et du coup la diffrence entre X et Yrot reprsente la part non explique par Y du tableau de donnes X
Et du coup la diff?rence entre X et Yrot repr?sente la part non expliqu?e par Y du tableau de donn?es X
$$
\sum(X-Y_{rot})^2=SRC_{residuel}
......
......@@ -19,7 +19,7 @@ knitr::opts_knit$set(
)
```
## Mathematic priciples
## Mathematic principles
## Estimation des coefficients lors d'une régression linéaire multiple (2 variables)
......@@ -127,10 +127,81 @@ $$
{S^2_{x_2}S^2_{x_1}-S^2_{x_1x_2}}
$$
D'un point de vue matricielle, les coefficients des pentes peuvent s'écrire à partir des matrices de covariances des variables explicatives (X) et des covariances entre la matrice explicative (X) et et de la variable à expliquer Y:
## Calcul matriciel :
Soit $\tilde{\theta}(y)$ l'estimation des différentes paramètres de la régression multiple :
dans notre cas :
$$
\tilde{\theta}(y) = (\hat a_1, \hat a_2)
$$
En généralisant :
$$
\tilde{\theta}(y) = (X'X)^{-1}X'Y
$$
## Calcul matriciel : calculs de parts de variances expliquées d'un tableau Y à partir d'un tableau X explicatif
Soit Y la matrice à expliquer et X la matrice explicative.
Par procuste on a trois opérations :
* translation (revient à aligner les barycentres : centrer )
* échelle : homothétie
* rotation trouver l'angle qui minimise : méthode des moindres carrés
Seule contrainte de la méthode, la rotation doit être effectuée en dernier.
On cherche : $$ Min|Y-(1c'+\rho X A)| $$
On se retrouve à minimiser comme en relation linéaire l'écart entre X notre tableau de données explicative et la matrice Y (qui représente l'approximation en régression linéaire) :
$$1c'+\rho X A $$
avec $c'$ translation (centrage), $\rho$ échelle (normalisation), $A$ rotation
D'un point de vue matriciel : il faut que A'A=I orthogonal, diag(A'A)=1
Les matrices centrées de X et Y sont notées :
$$\tilde{Y}, \tilde{X}$$
Décomposition en valeur singulière : avec U'U=V'V=I
$$\tilde{Y}' \tilde{X} = U \Lambda V'$$
La matrice de rotation est donc estimée par : $$\hat{A}=VU'$$
Paramètre d'échelle qui correspond à c dans procruste :
$$\hat{\rho}=\frac{trace(\hat{A}\tilde{Y}'\tilde{X})}{trace(\tilde{Y}'\tilde{X})}$$
Si on fait l'analogie avec la fonction programmée dans procrustre (équivalence : translation <=> b, échelle <=> c et rotation A) :
$$ Xrot = \hat{\rho} X A
\\
b = \overline{Y}-\hat{\rho}\overline{X} A
$$
Si la translation n'a pas encore été faite, on a :
$$Xrot = 1c'+ \hat{\rho} X A
\\
b = \overline{Y}-\hat{\rho}\overline{X} A
$$
Xrot est la nouvelle estimation de X qui a été transformé pour "être représenté dans la même base" que Y
Soit X la matrice à expliquer et Y la matrice explicative.
Et du coup la différence entre Xrot et Y représente la part non expliquée du tableau Y par X
$$
\sum(Y-X_{rot})^2 = SRC_{residuel}
$$
## Calcul matriciel : calculs de parts de variances expliquées d'un tableau Y à partir de deux tableaux X1 et X2 explicatifs
Soit Y la matrice à expliquer, X1 et X2 deux matrices explicatives.
Par procuste on a trois opérations :
* translation (revient à aligner les barycentres : centrer )
......@@ -143,10 +214,69 @@ Par procuste on a trois opérations :
Seule contrainte de la méthode, la rotation doit être effectuée en dernier.
On cherche : $$ Min|X-(1c'+\rho Y A)| $$
On cherche : $$ Min|Y-[(1c_1'+\rho_1 X_1 A_1)+(1c_2'+\rho_2 X_2 A_2)]| $$
On se retrouve à minimiser comme en relation linéaire l'écart entre X1 et X2 nos tableaux de données explicatives et la matrice Y (qui représente l'approximation en régression linéaire) :
$$(1c_1'+\rho_1 X_1 A_1)+(1c_2'+\rho_2 X_2 A_2) $$
avec $c_1'$ et $c_2'$ translation (centrage), $\rho1$ et $\rho_2$ échelle (normalisation), $A_1$ et $A_2$ rotation
D'un point de vue matriciel, les matrices de rotations doivent vérifier les conditions suivantes : A'A=I orthogonal, diag(A'A)=1
Les matrices centrées sont notées :
$$\tilde{Y}, \tilde{X_1}, \tilde{X_2}$$
Décomposition en valeur singulière avec :
$$ U_1'U_1 = V_1'V_1 = I
\\
U_2'U_2 = V_2'V_2 = I
$$
$$
\tilde{Y}' \tilde{X_1} = U_1 \Lambda V_1'
\\
\tilde{Y}' \tilde{X_2} = U_2 \Lambda V_2'
$$
La matrice de rotation est donc estimée par :
$$
\hat{A_1} = V_1 U_1'
\\
\hat{A_2} = V_2 U_2'
$$
Paramètre d'échelle qui correspond à c dans procruste :
$$
\hat{\rho_1} = \frac{trace(\hat{A_1}\tilde{Y}'\tilde{X_1})}{trace(\tilde{Y}'\tilde{X_1})}
\\
\hat{\rho_2} = \frac{trace(\hat{A_2}\tilde{Y}'\tilde{X_2})}{trace(\tilde{Y}'\tilde{X_2})}
$$
Si on fait l'analogie avec la fonction programmée dans procrustre (équivalence : translation <=> b, échelle <=> c et rotation A) :
$$
X_1rot = \hat{\rho_1} X_1 A_1
\\
X_2rot = \hat{\rho_2} X_2 A_2
\\
b = \overline{Y}-\hat{\rho_1}\overline{X_1} A_1 -\hat{\rho_2}\overline{X_2} A_2
$$
Si la translation n'a pas encore été faite, on a :
$$
X_1rot = 1c_1'+ \hat{\rho_1} X_1 A_1
\\
X_2rot = 1c_2'+ \hat{\rho_2} X_2 A_2
\\
b = \overline{Y}-\hat{\rho_1}\overline{X_1} A_1 -\hat{\rho_2}\overline{X_2} A_2
$$
X1rot et X2 rot sont les nouvelles estimations de X1 et X2 qui ont été transformé pour "être représenté dans la même base" que Y.
On se retrouve à minimiser comme en relation linéaire l'écart entre X notre tableau de données explicative et la transformation de la matrice Y (qui représente l'approximation en régression linéaire) :
$$1c'+\rho Y A $$
avec $c'$ translation (centrage), $\rho$ échelle (normalisation), $A$ rotation
......@@ -185,6 +315,8 @@ $$
\sum(X-Y_{rot})^2=SRC_{residuel}
$$
## ProcMod usage
### Build a model
......
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment