\(E\) est un \(\mathbb{R}\)-espace vectoriel de dimension 2
  • VĂ©rification de la structure d'espace vectoriel
    E est non vide car: La matrice nulle $~M_{0,0} = 0~$ appartient Ă  $~E~$.
    Soit: \[M_{a,b} = \begin{pmatrix} a & b \\ -2b & a+2b \end{pmatrix} \in E\].
    Pour tout $~~(\lambda, \mu) \in \mathbb{R}^2~~$ et $~~(M_{a,b}, M_{a',b'}~~\in E^2$ : \[ \lambda M_{a,b} + \mu M_{a',b'} = \begin{pmatrix} \lambda a + \mu a' & \lambda b + \mu b' \\ -2(\lambda b + \mu b') & (\lambda a + \mu a') + 2(\lambda b + \mu b') \end{pmatrix} = M_{\lambda a + \mu a',\; \lambda b + \mu b'} \in E. \] Donc \(E\) est bien un sous-espace vectoriel de \(\mathcal{M}_2(\mathbb{R})\).

  • Dimension et base
    On décompose : \[ M_{a,b} = a\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} + b\begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix}. \] Posons : \[ I = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, \quad J = \begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix}. \] Alors: $$ M_{a,b} = aI + bJ$$
    • La famille \((I,J)\) est gĂ©nĂ©ratrice de \(E\) par construction.
    • Elle est libre car si:
      $\alpha I + \beta J = 0~$, alors : \[\begin{pmatrix} \alpha & \beta \\ -2\beta & \alpha+2\beta \end{pmatrix} = 0\] Ce qui implique: $$\alpha=\beta=0$$
    Donc \( (I,J) \) est une base de \(E\) et : \[ \boxed{\dim_\mathbb{R} E = 2, \quad \mathcal{B} = (I, J)}. \]

Stabilité de \(E\) pour la multiplication matricielle.
  • On rappelle que \(E = \mathrm{Vect}_{\mathbb{R}}(I, J)\) avec : \[ I = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, \quad J = \begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix}. \] Tout Ă©lĂ©ment de \(E\) s'Ă©crit \(M_{a,b} = aI + bJ\).
  • Calcul de \(J^2\) : \[ J^2 = \begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix} \begin{pmatrix} 0 & 1 \\ -2 & 2 \end{pmatrix} = \begin{pmatrix} -2 & 2 \\ -4 & 2 \end{pmatrix}. \] On remarque que: $$J^2= M_{-2,2}$$ Comme \(~~M_{-2,2} = -2I + 2J,~~\) on obtient la relation : \[ \boxed{J^2 = -2I + 2J}. \]
  • Produit de deux Ă©lĂ©ments quelconques
    Soient: \(~~M = aI + bJ~~\) et \(~~M' = a'I + b'J~~\) dans \(~E\).
    En développant le produit et en utilisant les propriétés de \(I\) (élément neutre) et la relation \(~~J^2 = -2I + 2J\) : \[ \begin{aligned} M \times M' &= (aI + bJ)(a'I + b'J) \\ &= aa'I^2 + ab'IJ + ba'JI + bb'J^2 \\ &= aa'I + ab'J + ba'J + bb'(-2I + 2J) \\ &= (aa' - 2bb')I + (ab' + ba' + 2bb')J. \end{aligned} \]
  • En posant : \[ A = aa' - 2bb', \quad B = ab' + ba' + 2bb', \] on a bien \(M \times M' = AI + BJ = M_{A,B} \in E\).
  • Ainsi, \(E\) est stable pour la multiplication matricielle.

\(f\) est un isomorphisme de \((E, +, \times)\) dans \((\mathbb{C}, +, \times)\)
  • Morphisme pour l'addition
    Soient: \(~~M_{a,b}, M_{a',b'} \in E\) : \[ f(M_{a,b} + M_{a',b'}) = f(M_{a+a', b+b'}) = (a+a') + (b+b') + i(b+b') \] \[ = (a+b+ib) + (a'+b'+ib') = f(M_{a,b}) + f(M_{a',b'}). \]

  • Morphisme pour la multiplication
    $f~~$ est un morphisme multiplicatif
    • On rappelle : $$f(M_{a,b}) = f(aI + bJ) = a + b + ib$$ Et aussi: $$ f(I) = 1\quad;\quad f(J) = 1 + i$$ La linĂ©aritĂ© rĂ©elle de $f$ a Ă©tĂ© Ă©tablie : $$f(\alpha M + \beta N) = \alpha f(M) + \beta f(N)$$.

    • Observation clĂ©
      Pour montrer que \(~f~\) préserve la multiplication, il suffit de vérifier la propriété sur les éléments de la base, car tout élément de \(~E~\) est combinaison linéaire de \(~I~\) et \(~J~\), et \(~f~\) est déjà linéaire.

    • VĂ©rification sur la base
      1. Carré de l'unité : \[ f(I^2) = f(I) = 1, \qquad \text{et} \qquad f(I)^2 = 1^2 = 1. \quad \checkmark \]
      2. Produit \(I \times J\) et \(J \times I\) : \[ f(IJ) = f(J) = 1+i, \qquad f(I)f(J) = 1 \cdot (1+i) = 1+i. \qquad \checkmark \] \[ f(JI) = f(J) = 1+i, \qquad f(J)f(I) = (1+i) \cdot 1 = 1+i. \qquad \checkmark \]
      3. Carré de \(J\) :
        On sait que: $$J^2 = -2I + 2J$$ D'une part : \[ f(J^2) = f(-2I + 2J) = -2f(I) + 2f(J) = -2\cdot 1 + 2(1+i) = 2i. \] D'autre part : \[ f(J)^2 = (1+i)^2 = 1 + 2i + i^2 = 2i. \] Donc \(f(J^2) = f(J)^2\). \(\checkmark\)

    • Conclusion
      Puisque \(f\) est \(\mathbb{R}\)-linéaire et qu'elle préserve la multiplication sur les éléments de la base \(\{I, J\}\) (et donc sur leurs produits), elle est un morphisme d'algÚbres : \[ f((aI+bJ)(a'I+b'J)) = f(aI+bJ) \cdot f(a'I+b'J) \quad \forall a,b,a',b' \in \mathbb{R}. \] La vérification explicite du produit général est ainsi évitée.

  • ÉlĂ©ment neutre multiplicatif
    \(f(M_{1,0}) = 1 + 0 + i\cdot 0 = 1\) et \(M_{1,0} = I_2\).

    • Injection :
      si \(f(M_{a,b}) = 0\), alors \(a+b+ib = 0\).
      Partie imaginaire : \(b = 0\).
      Partie réelle : \(a + 0 = 0 \Rightarrow a = 0\).
      Donc \(M_{a,b} = 0\).
      Par conséquent $f$ est injective.
    • Surjection :
      Pour \(z = x+iy \in \mathbb{C}\), on pose \(b = y\) et \(a = x - y\).
      Alors \(f(M_{x-y, y}) = (x-y) + y + iy = x + iy = z\).
      Donc: $f$ est surjective et donc bijective

  • Conclusion : \(f\) est un isomorphisme d'anneaux (et de corps).
    Puisque \((\mathbb{C}, +, \times)\) est un corps commutatif, alors \((E, +, \times)\) est aussi un corps commutatif.

\(f\) est un isomorphisme d'espaces vectoriels réels
  • LinĂ©aritĂ©
    Pour tout \(\lambda \in \mathbb{R}\) et \(M_{a,b} \in E\) : \[ f(\lambda M_{a,b}) = f(M_{\lambda a, \lambda b}) = \lambda a + \lambda b + i\lambda b = \lambda(a+b+ib) = \lambda f(M_{a,b}). \] L'additivité a déjà été vérifiée.
  • Bijection
    Déjà établie ci-dessus.
  • Donc \(f\) est un isomorphisme d'espaces vectoriels rĂ©els entre \(E\) (de dimension 2) et \(\mathbb{C}\) (vu comme \(\mathbb{R}\)-espace vectoriel de dimension 2).