\(E\) est un \(\mathbb{R}\)-espace vectoriel de dimension 2
- Vérification de la structure d'espace vectoriel
E est non vide car: La matrice nulle $~M_{0,0} = 0~$ appartient Ă $~E~$.
Soit: \[M_{a,b} = \begin{pmatrix} a & b \\ -2b & a+2b \end{pmatrix} \in E\].
Pour tout $~~(\lambda, \mu) \in \mathbb{R}^2~~$ et $~~(M_{a,b}, M_{a',b'}~~\in E^2$ : \[ \lambda M_{a,b} + \mu M_{a',b'} = \begin{pmatrix} \lambda a + \mu a' & \lambda b + \mu b' \\ -2(\lambda b + \mu b') & (\lambda a + \mu a') + 2(\lambda b + \mu b') \end{pmatrix} = M_{\lambda a + \mu a',\; \lambda b + \mu b'} \in E. \] Donc \(E\) est bien un sous-espace vectoriel de \(\mathcal{M}_2(\mathbb{R})\). - Dimension et base
On décompose : \[ M_{a,b} = a\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} + b\begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix}. \] Posons : \[ I = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, \quad J = \begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix}. \] Alors: $$ M_{a,b} = aI + bJ$$- La famille \((I,J)\) est génératrice de \(E\) par construction.
- Elle est libre car si:
$\alpha I + \beta J = 0~$, alors : \[\begin{pmatrix} \alpha & \beta \\ -2\beta & \alpha+2\beta \end{pmatrix} = 0\] Ce qui implique: $$\alpha=\beta=0$$
Stabilité de \(E\) pour la multiplication matricielle.
- On rappelle que \(E = \mathrm{Vect}_{\mathbb{R}}(I, J)\) avec : \[ I = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, \quad J = \begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix}. \] Tout élément de \(E\) s'écrit \(M_{a,b} = aI + bJ\).
- Calcul de \(J^2\) : \[ J^2 = \begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix} \begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix} = \begin{pmatrix} -2 & 2 \\ -4 & 2 \end{pmatrix}. \] On remarque que: $$J^2= M_{-2,2}$$ Comme \(~~M_{-2,2} = -2I + 2J,~~\) on obtient la relation : \[ \boxed{J^2 = -2I + 2J}. \]
- Produit de deux éléments quelconques
Soient: \(~~M = aI + bJ~~\) et \(~~M' = a'I + b'J~~\) dans \(~E\).
En développant le produit et en utilisant les propriétés de \(I\) (élément neutre) et la relation \(~~J^2 = -2I + 2J\) : \[ \begin{aligned} M \times M' &= (aI + bJ)(a'I + b'J) \\ &= aa'I^2 + ab'IJ + ba'JI + bb'J^2 \\ &= aa'I + ab'J + ba'J + bb'(-2I + 2J) \\ &= (aa' - 2bb')I + (ab' + ba' + 2bb')J. \end{aligned} \]
En posant :
\[
A = aa' - 2bb', \quad B = ab' + ba' + 2bb',
\]
on a bien \(M \times M' = AI + BJ = M_{A,B} \in E\).
- Ainsi, \(E\) est stable pour la multiplication matricielle.
\(f\) est un isomorphisme de \((E, +, \times)\) dans \((\mathbb{C}, +, \times)\)
- Morphisme pour l'addition
Soient: \(~~M_{a,b}, M_{a',b'} \in E\) : \[ f(M_{a,b} + M_{a',b'}) = f(M_{a+a', b+b'}) = (a+a') + (b+b') + i(b+b') \] \[ = (a+b+ib) + (a'+b'+ib') = f(M_{a,b}) + f(M_{a',b'}). \] - Morphisme pour la multiplication
$f~~$ est un morphisme multiplicatif
- On rappelle : $$f(M_{a,b}) = f(aI + bJ) = a + b + ib$$ Et aussi: $$ f(I) = 1\quad;\quad f(J) = 1 + i$$ La linéarité réelle de $f$ a été établie : $$f(\alpha M + \beta N) = \alpha f(M) + \beta f(N)$$.
- Observation clé
Pour montrer que \(~f~\) préserve la multiplication, il suffit de vérifier la propriété sur les éléments de la base, car tout élément de \(~E~\) est combinaison linéaire de \(~I~\) et \(~J~\), et \(~f~\) est déjà linéaire. - Vérification sur la base
- Carré de l'unité : \[ f(I^2) = f(I) = 1, \qquad \text{et} \qquad f(I)^2 = 1^2 = 1. \quad \checkmark \]
- Produit \(I \times J\) et \(J \times I\) : \[ f(IJ) = f(J) = 1+i, \qquad f(I)f(J) = 1 \cdot (1+i) = 1+i. \qquad \checkmark \] \[ f(JI) = f(J) = 1+i, \qquad f(J)f(I) = (1+i) \cdot 1 = 1+i. \qquad \checkmark \]
- Carré de \(J\) :
On sait que: $$J^2 = -2I + 2J$$ D'une part : \[ f(J^2) = f(-2I + 2J) = -2f(I) + 2f(J) = -2\cdot 1 + 2(1+i) = 2i. \] D'autre part : \[ f(J)^2 = (1+i)^2 = 1 + 2i + i^2 = 2i. \] Donc \(f(J^2) = f(J)^2\). \(\checkmark\)
- Conclusion
Puisque \(f\) est \(\mathbb{R}\)-linéaire et qu'elle préserve la multiplication sur les éléments de la base \(\{I, J\}\) (et donc sur leurs produits), elle est un morphisme d'algÚbres : \[ f((aI+bJ)(a'I+b'J)) = f(aI+bJ) \cdot f(a'I+b'J) \quad \forall a,b,a',b' \in \mathbb{R}. \] La vérification explicite du produit général est ainsi évitée.
- ĂlĂ©ment neutre multiplicatif
\(f(M_{1,0}) = 1 + 0 + i\cdot 0 = 1\) et \(M_{1,0} = I_2\). - Injection :
si \(f(M_{a,b}) = 0\), alors \(a+b+ib = 0\).
Partie imaginaire : \(b = 0\).
Partie réelle : \(a + 0 = 0 \Rightarrow a = 0\).
Donc \(M_{a,b} = 0\).
Par conséquent $f$ est injective. - Surjection :
Pour \(z = x+iy \in \mathbb{C}\), on pose \(b = y\) et \(a = x - y\).
Alors \(f(M_{x-y, y}) = (x-y) + y + iy = x + iy = z\).
Donc: $f$ est surjective et donc bijective - Conclusion : \(f\) est un isomorphisme d'anneaux (et de corps).
Puisque \((\mathbb{C}, +, \times)\) est un corps commutatif, alors \((E, +, \times)\) est aussi un corps commutatif.
\(f\) est un isomorphisme d'espaces vectoriels réels
- Linéarité
Pour tout \(\lambda \in \mathbb{R}\) et \(M_{a,b} \in E\) : \[ f(\lambda M_{a,b}) = f(M_{\lambda a, \lambda b}) = \lambda a + \lambda b + i\lambda b = \lambda(a+b+ib) = \lambda f(M_{a,b}). \] L'additivité a déjà été vérifiée. - Bijection
Déjà établie ci-dessus. - Donc \(f\) est un isomorphisme d'espaces vectoriels réels entre \(E\) (de dimension 2) et \(\mathbb{C}\) (vu comme \(\mathbb{R}\)-espace vectoriel de dimension 2).