Racine carrée d'une matrice

Un article de Wikipédia, l'encyclopédie libre.

En mathématiques, la notion de racine carrée d'une matrice particularise aux anneaux de matrices carrées la notion générale de racine carrée dans un anneau.

Définition[modifier | modifier le code]

Soient un entier naturel n non nul et M une matrice carrée d'ordre n à coefficients dans un anneau A. Un élément R de Mn(A) est une racine carrée de M si R2 = M.

Une matrice donnée peut n'admettre aucune racine carrée, comme un nombre fini voire infini de racine carrées.

Exemples[modifier | modifier le code]

Dans M2() :

  • est une racine carrée de
  • pour tout réel x, la matrice est une racine carrée de
  • n'a pas de racine carrée réelle R, car cela imposerait (mais elle en a dans M2()).

Dans M2(ℂ), la matrice n'a pas de racine carrée, parce qu'elle est non nulle mais de carré nul (on dit qu'elle est nilpotente d'indice 2). En effet, une racine carrée R serait aussi nilpotente (de puissance 4e nulle), or toute matrice nilpotente de taille 2 est de carré nul. On aurait donc M = R2 = 0, ce qui n'est pas le cas.

De manière plus générale, si M admet une forme de Jordan

où les scalaires λi sont les valeurs propres de M, alors toute matrice de la forme

avec f étant la fonction racine carrée sur une des branches est une racine carrée de M[1].

Inverse[modifier | modifier le code]

Si R est une racine carrée de M alors R est inversible si et seulement si M l'est.

Si une matrice est inversible, les racines carrées de son inverse sont les inverses de ses racines carrées.

Matrice positive[modifier | modifier le code]

Toute matrice symétrique à coefficients réels est diagonalisable via une matrice de passage orthogonale, et elle est positive si et seulement si ses valeurs propres sont des réels positifs ou nuls. Par ailleurs, si une matrice S est diagonalisable alors son carré a mêmes sous-espaces propres (associés aux carrés des valeurs propres de S). Par conséquent, parmi les racines carrées d'une matrice symétrique positive M, une et une seule est symétrique positive : la matrice S qui a mêmes sous-espaces propres que M et dont les valeurs propres associées sont les racines carrées respectives de celles de M. De plus, lorsque M est définie positive, S l'est aussi.

Pour les matrices à coefficients complexes, la situation est la même en remplaçant « symétrique » par « hermitienne » et « orthogonale » par « unitaire » .

Algorithme de calcul[modifier | modifier le code]

Le calcul d'une racine carrée d'une matrice A peut s'effectuer par convergence d'une suite de matrices.

Algorithme de Newton[modifier | modifier le code]

On cherche une matrice X telle que X2 = A. En considérant une matrice Xr qui approche X par Xr + E = X. On en déduit un schéma itératif pour le calcul de la racine carrée d'une matrice A sous la forme d'une équation de Sylvester :

On peut simplifier en une équation, qui rappelle le schéma de la méthode de Newton :

mais cette forme peut induire des problèmes de stabilité[2].

Algorithme de calcul de Denman-Beavers[modifier | modifier le code]

Soit Y0 = A et Z0 = II est la matrice identité. Chaque itération repose sur :

La convergence n'est pas garantie (même si A possède une racine carrée) mais si elle a lieu alors la suite Yk converge de façon quadratique vers A1/2, tandis que la suite Zk converge vers son inverse, A–1/2 [3],[4].

Racine carrée d'un opérateur positif[modifier | modifier le code]

En théorie des opérateurs (en), un opérateur borné P sur un espace de Hilbert complexe est positif (en) si et seulement s'il existe (au moins) un opérateur borné T tel que P = T* T, où T* désigne l'adjoint de T[5]. En fait, si P est positif, il existe même un unique opérateur Q positif (donc autoadjoint) tel que P = Q2[5]. Cet opérateur Q, obtenu par calcul fonctionnel continu, est appelé la racine carrée de P et appartient au bicommutant de P[5].

Notes et références[modifier | modifier le code]

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Square root of a matrix » (voir la liste des auteurs).
  1. (en) Nicholas J. Higham, « Computing real square roots of a real matrix », Linear Algebra and its Applications, vol. 88–89,‎ , p. 405-430 (DOI 10.1016/0024-3795(87)90118-2)
  2. (en) Åke Björck et Sven Hammarling, « A Schur method for the square root of a matrix », Linear Algebra and its Applications, vol. 52–53, no 4,‎ , p. 127-140 (DOI 10.1016/0024-3795(83)80010-X, lire en ligne [PDF]).
  3. (en) Eugene D. Denman et Alex N. Beavers, « The matrix sign function and computations in systems », Applied Mathematics and Computation, vol. 2, no 1,‎ , p. 63–94 (DOI 10.1016/0096-3003(76)90020-5).
  4. (en) Sheung Hun Cheng, Nicholas J. Higham, Charles S. Kenney et Alan J. Laub, « Approximating the Logarithm of a Matrix to Specified Accuracy », SIAM Journal on Matrix Analysis and Applications, vol. 22, no 4,‎ , p. 1112–1125 (DOI 10.1137/S0895479899364015, lire en ligne [PDF]).
  5. a b et c (en) Ronald G. Douglas, Banach Algebra Techniques in Operator Theory, Springer, coll. « GTM » (no 179), , 2e éd. (1re éd. 1972) (lire en ligne), p. 86-87.

Articles connexes[modifier | modifier le code]