Prérequis
- Espaces vectoriels
- Applications linéaires
- Espace dual
Définitions
Une forme bilinéaire sur un espace vectoriel E est une application \varphi : E \times E \longrightarrow \mathbb{K} linéaire en chacun de ses arguments. De plus, elle est dite symétrique si \forall x,y \in E, \varphi(x,y) = \varphi(y,x) .
La matrice (\varphi(e_i,e_j))_{1 \leq i,j \leq n} s’appelle matrice de la forme bilinéaire \varphi dans la base (e_i)_{1 \leq i \leq n} de E .
Si on note a_{ij} = \varphi(e_i,e_j) , on obtient facilement en utilisant la bilinéarié de \varphi : pour tout x,y \in E, \varphi(x,y) \sum_{1 \leq i,j \leq n} a_{ij} x_i y_j , où x_i, y_j sont les coordonnées des vecteurs x, y dans la base (e_i)_{1 \leq i \leq n} .
Une fonction q : E \longrightarrow \mathbb{K} s’appelle forme quadratique si \forall \lambda \in \mathbb{K}, \forall x \in E, q(\lambda x) = \lambda^2 q(x) et b_q(x,y) = \frac{1}{2} (q(x+y)-q(x)-q(y)) est une forme bilinéaire. On appelle alors cette dernière forme bilinéaire symétrique associée à q .
Pour \varphi forme bilinéaire symétrique sur E , on appelle forme quadratique associée à \varphi l’application q(x) := \varphi(x,x) .
La matrice d’une forme quadratique q est la matrice de la forme bilinéaire symétrique associée à q . Soit \Epsilon une base, et M = (a_{ij})_{1 \leq i,j \leq n} la matrice de q dans cette base, alors q(x) =\displaystyle \sum_{1 \leq i,j\leq n} a_{ij}x_i x_j = \sum_{i=1}^n a_{ii}x_i^2 + 2 \sum_{1 \leq i <j \leq n } a_{ij}x_i x_j .
Diagonalisation des formes quadratiques
Théorème : Soit E un \mathbb{K} espace vectoriel de dimension finie. Alors toute forme quadratique (ou forme bilinéaire symétrique) sur E est diagonalisable.
Via la méthode de Gauss, on va pouvoir prouver ce théorème.
On choisit une base quelconque b_1, \dots, b_n de E , ce qui nous fournit donc n fonctions coordonnées :
x = \sum_{k=1}^n x_k b_k \xrightarrow{b_i^*} x_i
que l’on note par abus de notation simplement x_i . Ainsi toute forme quadratique s’écrit comme polynôme homogène de degré 2 en les x_i :
q : \sum_{i=1}^n x_i b_i \mapsto \sum_{1 \leq i,j \leq n} a_{ij} x_i x_j
Ou encore :
q = \sum_{1 \leq i,j \leq n} a_{ij} b_i^* b_j^*
Démonstration de la méthode de Gauss
On va démontrer la décomposition en carrés de Gauss par récurrence sur p=1,\dots,n .
(HR) Soient f_1, \dots, f_p \in E^* linéairement indépendant, et h = \sum_{1 \leq i,j \leq n} a_{ij} f_i f_j une forme quadratique sur E . Alors il existe l_1,\dots l_p \in Vect(f_1,\dots,f_p) et \lambda_1,\dots, \lambda_p \in \mathbb{K} tels que l_1,\dots,l_p sont linéairements indépendants et h = \lambda_1 l_1 + \dots + \lambda_p l_p .
Soit p=1 . On a h = a_{11}f_1^2 , donc on a la forme souhaitée. Distinguons à présent deux cas.
Premier cas : Supposons qu’il existe i \in \{1,\dots,p\} tel que a_{ii} \neq 0 . Quitte à permuter les f_i , on peut supposer que i = 1 . Alors :
\begin{align*} h &= a_{11}f_1^2 + 2 a_{12}f_1f_2 + \dots + 2 a_{1p}f_1f_p + \sum_{2\leq i,j \leq p} a_{ij}f_if_j \\ &= a_{11}(f_1^2+2\frac{a_{12}}{a_{11}}f_1f_2 + \dots 2\frac{a_{1p}}{a_{11}}f_1f_p) + \sum_{2\leq i,j \leq p} a_{ij}f_if_j \end{align*}
On pose l_1 = f_1^2+ a_{12}f_1f_2 + \dots + a_{1p}f_1f_p . On a ainsi :
\begin{align*} h &= a_{11}l_1^2 - \frac{a_{12}^2}{a_{11}}f_2^2 - \dots - \frac{a_{1p}^2}{a_{11}}f_p^2 - 2\sum_{2 \leq i,j\leq p} \frac{a_{1i}a_{1j}}{a_{11}}f_if_j + \sum_{2 \leq i,j \leq p}a_{ij}f_if_j \\ &= a_{11}l_1^2 + \sum_{2\leq i,j\leq p} a'_{ij}f_if_j \end{align*}
où a'_{ij} = a_{ij} - \frac{a_{1i}a_{1j}}{a_{11}} .
Finalement, h = a_{11}l_1^2 + h' où h' est un polynôme quadratique homogène en p-1 formes linéaires indépendantes f_2, _dots, f_p . On applique donc l’hypothèse de récurrence à h' , et on a ainsi montré la décomposition pour h .
Deuxième cas : Pour tout i \in \{1,\dots,p\}, a_{ii} = 0 . Si tous les a_{ij} sont nuls, alors h=0 et il n’y a rien à montrer.
Supposons qu’il existe une paire (i,j), i \neq j, 1 \leq i,j \leq p telle que a_{ij} \neq 0 . Quitte à permuter les f_k , on peut supposer i=1, j=2 . On pose f'_1 = f_1 +f_2, f'_2 = f_1-f_2 . On obtient alors une forme :
h' = \sum_{1 \leq i,j \leq p } a'_{ij}f'_if'_j
pour laquelle a'_{11} = 2a_{12} \neq 0 et a'_{22} = -a_{12} \neq 0 . On peut donc appliquer le premier cas à h' .
Signature d’une forme quadratique
Soit E un espace vectoriel muni d’une forme bilinéaire \varphi . Deux vecteurs x,y sont dits orthogonaux si \varphi(x,y)=0 .
Une base e_1,\dots,e_n de E est dite orthogonale si l’une des conditions équivalentes est vérifiée : e_i \perp e_j, i \neq j \Longleftrightarrow la matrice de la forme dans la base est diagonale.
Théorème : Soit q : E \longrightarrow \mathbb{R} une forme quadratique. Alors il existe un unique p \in \mathbb{N} tel que q s’écrit dans une base convenable par la matrice diagonale suivante :
\begin{pmatrix} I_p & 0 & 0 \\ 0 & -I_q & 0 \\ 0 & 0 &0 \end{pmatrix}
Preuve : Par le théorème de diagonalisation des formes quadratiques, il existe une base orthogonale e_1,\dots,e_n telle que q(e_i)= \lambda_i . On peut ordonner les vecteurs de la base de telle façon que \lambda_i >0 pour i \in \{1,\dots,p\} , \lambda_i <0 pour i \in \{p+1,\dots,p+q\} , et \lambda_i = 0 pour i \in \{p+q+1,\dots,n\} . Alors, la matrice de q acquiert la forme souhaitée dans la base :
(\frac{1}{\sqrt{\lambda_1}}e_1, \dots, \frac{1}{\sqrt{\lambda_p}}e_p,\frac{1}{\sqrt{-\lambda_{p+1}}}e_{p+1},\dots,\frac{1}{\sqrt{-\lambda_{p+q}}}e_{p+q},e_{p+q+1},\dots,e_n)
La paire (p,q) s’appelle signature de q . C’est l’invariant classifiant les formes quadratiques sur un espace vectoriel réel de dimension donnée n .
Exercice
Enoncé
Décomposer en somme de carrés les formes quadratiques suivantes, déterminer leur rang et signature.
\begin{align*} q(x,y,z) &= x^2 + y^2 + z^2 - 4xy -4yz -4zx \\ q(x,y,z) &= 2x^2+6y^2-4xy+8xz \\ q(x,y,z) & = xy + yz + 2zx \end{align*}
Corrigé de l’exercice
\begin{align*} x^2+y^2+z^2-4xy-4yz-4xz & = (x^2-4xy-4xz)+y^2+z^2-4yz \\ & = (x-2(y+z))^2 -4(y+z)^2+y^2+z^2-4yz \\ & = (x-2(y+z))^2 -3y^2-3z^2-12yz \\ & = (x-2(y+z))^2 -3(y^2+4yz) -3z^2 \\ & = (x-2(y+z))^2 -3(y+2z)^2+3(2z)^2-3z^2\\ & = (x-2(y+z))^2 -3(y+2z)^2 +9z^2 \end{align*}
La matrice de cette forme dans une base orthogonale est :
\begin{pmatrix} 1&0&0\\ 0&-3&0\\ 0&0&9 \end{pmatrix}
La signature de q est (2,1), son rang est 3.
\begin{align*} 2x^2+6y^2-4xy+8xz & = 2(x^2-2xy+4xz) +6y^2 \\ & = 2(x-(y-2z))^2 -2(y-2z)^2+6y^2 \\ & = 2(x-(y-2z))^2 -2y^2+8yz-8z^2+6y^2 \\ & = 2(x-(y-2z))^2 +4y^2+8yz-8z^2 \\ & = 2(x-(y-2z))^2 +4(y^2+2yz)-8z^2 \\ & = 2(x-(y-2z))^2 +4(y+z)^2-4z^2-8z^2 \\ & = 2(x-(y-2z))^2 +4(y+z)^2 -12z^2 \end{align*}
La matrice de cette forme dans une base orthogonale est :
\begin{pmatrix} 2&0&0\\ 0&4&0\\ 0&0&-12 \end{pmatrix}
La signature de q est (2,1), son rang est 3.
\begin{align*} xy+yz+2xz & = (x+z)(y+2z)-2z^2 \\ & = \frac{1}{4}\Big(((x+z)+(y+2z))^2-(x+z)-(y+2z))^2\Big)-2z^2 \\ & = \frac{1}{4}\Big((x+y+3z)^2-(x-y-z)^2\Big)-2z^2 \end{align*}
La matrice de cette forme dans une base orthogonale est :
\begin{pmatrix} \frac{1}{4}&0&0\\ 0&\frac{-1}{4}&0\\ 0&0&-2 \end{pmatrix}
La signature de q est (1,2), son rang est 3.