ChronoMath, une chronologie des MATHÉMATIQUES
à l'usage des professeurs de mathématiques, des étudiants et des élèves des lycées & collèges

Applications linéaires - Matrice d'une application linéaire  
   
Espace L(E,F) | Anneau L(E) | Groupe linéaire GL(E) | Groupe orthogonal | GO(E) et ses sous-groupes       tout au long de cette page et ici
            Matrices | Somme et produit de matrices | Trace d'une matrice | Valeurs propres | Matrices & changement de base | Matrice inverse

Les applications linéaires constituent un chapitre considérable des mathématiques modernes, tant par sa densité au-delà de son développement propre comme le calcul matriciel, la théorie des déterminants, les formes quadratiques, les espaces fonctionnels, que par l'importance de son emploi dans les autres sciences (mais les mathématiques sont-elles une science ?) : recherche opérationnelle, sciences économiques, mécanique quantique, théorie de la relativité, du fait, en particulier, des nombreuses interventions des systèmes d'équations algébriques, différentielles ou aux dérivées partielles, dont la résolution utilise les applications linéaires et le calcul matriciel qui leur est lié.

Dans toute la suite, on note + l'addition d'un espace vectoriel E sur un corps commutatif K (corps des scalaires) et au moyen d'un point () sa multiplication par un scalaire. Le contexte fera comprendre de quelle loi de composition il s'agit. Lorsqu'il n'y a pas d'ambiguïté, le point est souvent omis. Le vecteur nul de E (neutre pour l'addition) est noté 0E. Dans un espace vectoriel de dimension finie n, une base sera souvent notée (b1, b2, ..., bn) ou (e1, e2, ...,en).

Application linéaire, forme linéaire, endomorphisme, isomorphisme :

On appelle ainsi un homomorphisme d'espaces vectoriels. C'est dire que si l'on appelle E et F deux espaces vectoriels sur le même corps commutatif K (pour simplifier l'écriture, leurs lois sont notées identiquement), et f une telle application de E vers F :

On déduit de ces deux axiomes de définition :

Cette dernière propriété de nullité en zéro est une importante condition nécessaire de linéarité car elle peut servir pour prouver facilement qu'une application n'est pas linéaire dans la mesure où elle n'est pas vérifiée.

On peut réunir les deux axiomes de définition en un seul : pour tout couple (x,y) de E2 et tout couple (λ,μ) de K2 :

f(λ.x + μ.y ) = λ.f(x) + μ.f(y)

  Si deux espaces vectoriels sont isomorphes, on peut les identifier, en ce sens que parler des propriétés de l'un revient à parler de celles de l'autre car par l'isomorphie, tout résultat obtenu dans l'un peut être obtenu dans l'autre.

Forme linéaire :     

F peut peut être le corps K des scalaires de E : une application linéaire de E vers K prend alors le nom de forme linéaire sur E. On parle aussi dans ce cas de fonctionnelle linéaire, mais cette appellation semble obsolète.

Exemples et contre-exemples :        

  R est un espace vectoriel de dimension 1 sur lui-même; les applications linéaires f : R R sont de la forme f(x) = ax. Les applications de la forme f(x) = ax + b avec b non nul ne sont pas linéaires; on parle d'application affine. Leur représentation graphique est cependant une droite, comme pour les applications linéaires de R dans lui-même.     Abonnement (exercice corrigé, fonctions affines niveau seconde).

  Pour tout vecteur u d'un plan P, considéré comme un espace vectoriel de dimension 2 sur R, on pose f(u) = 2u ; on définit ainsi un endomorphisme de P, appelée homothétie vectorielle de rapport 2.

  Considérons dans un plan vectoriel (espace vectoriel de dimension 2 sur R) rapporté à une base (i,j), l'application f qui à tout vecteur v(x,y) associe v'(2x - y, x + y). On vérifie facilement la linéarité de f.

  Notons F l'espace vectoriel des fonctions numériques continues sur un intervalle [a,b] de R; l'application qui, à toute fonction f de F, associe l'intégrale f(t)dt est une forme linéaire sur F.

  Soit f : R2 R , f(x,y) = xy; f n'est pas linéaire : on n'a ni l'homogénéité, ni l'additivité. On donnera des contre-exemples numériques à foison...

  Soit f : R2 R , f(x,y) = x2/y si y non nul et 0 sinon. f n'est pas linéaire : l'homogénéité est vérifiée mais pas l'additivité.

  Soit f : R2 R , f(x,y) = xy; f est linéaire : f[(x,y) + (x',y')] = f(x + x', y + y') = (x + x') + (y + y') = (x + y) + (x' + y') = f(x,y) + f(x',y'). f[λ.(x,y)] = f(λx,λy) = λx + λy = λ(x + y) = λ.f(x,y).

  Soit g : R2 R , g(x,y) = xy; g n'est pas linéaire : par exemple g(1,1) = 1 et g(2,2) = 4; or g(2,2) peut s'écrire g[(1,1) + (1,1)]; si g était linéaire, nous devrions obtenir g(2,2) = g(1,1) + g(1,1) = 2. Notons d'ailleurs que g[λ.(x,y)] = g(λx,λy) = λ2xy donc distinct, en général, de λ.g(x,y)

  Dans un espace vectoriel E, la translation de vecteur u non nul, définie par t(v) = v + u pour tout v de E n'est pas linéaire.

Applications affines (cas général) :                 Noyau et image d'une application linéaire :


1. Montrer que toute application additive continue de R dans R est linéaire. Rép :
ici
2. Une application additive vérifiant f(
λ.x) = (λ).f(x), où est un automorphisme de K distinct de l'application identique,
est dite
semi-linéaire relativement à . On suppose E = F = K = C, corps des complexes. Montrer que z z est semi-linéaire.

Valeurs propres, diagonalisation :   Changement de base, triangulation :

Expression analytique et matrice d'une application linéaire :

Lorsque E et F sont de dimensions finies n et p, de bases respectives B = (e1, ..., en) et B' = (e'1, ..., e'p), la linéarité de f : E F permet d'écrire :

Quel que soit v = x.e1 + y.e2 + ... :   f(v) = x.f(e1) + y.f(e2) + ...

et cette relation caractérise une application linéaire : se donner l'application linéaire f c'est se donner les vecteurs f(e1), f(e2), ... images par f des vecteurs de la base B = (e1, ..., en) de E.

Par exemple :   

Reprenons le cas d'un plan vectoriel (espace vectoriel de dimension 2 sur R) rapporté à la base (i,j) et l'application linéaire

f : v(x,y) v'(2x - y, x + y)

On a i(1;0) et j(0;1). Les coordonnées de f(i) sont donc (2;1) et celles de f(j) sont (-1;1). C'est dire que f(i) = 2i + j et f(j) = -i + j.

Par linéarité :

f(v) = f(x.i + y.j) = x.f(i) + y.f(j) = x.(2i + j) + y.(-i + j) = (2x - y).i + (x + y).j

On retrouve que les coordonnées de v' = f(v) sont x' = 2x - y et  y' = x + y.

Expression analytique :   

On appelle ainsi la liste des coordonnées x', y', ... de f(v) en fonction de celles de v. Les nombres x', y', ... sont des combinaisons linéaires de x, y, ... et ces formes caractérisent les applications linéaires.

 Dans l'exemple ci-dessus, l'expression analytique de f dans la base (i,j) est donc donnée par x' = 2x - y , y' = x + y

Exprimés dans la base B' = (e'1, ..., e'p) de F,  les vecteurs f(ei) sont de la forme :

On appelle alors matrice de f dans les bases B et B', le tableau, mis entre parenthèses, des cordonnées de ces images :

          Cayley

C'est une matrice à p lignes et n colonnes (matrice p x n). Si on appelle Mf,B,B' cette matrice, on écrit souvent pour simplifier (en notant toujours en premier l'indice des lignes ici : i) :

Mf,B,B' = (aij)i=1,..p ; j=1,..n

Lorsque n = p, on parle de matrice carrée d'ordre n. Lorsqu'il n'y a pas d'ambiguïté, on note simplement Mf , voire M, au lieu de Mf,B,B'. Voici un exemple :


Dans un espace vectoriel E de dimension 3 sur R, rapporté à la base B = (i, j, k), on considère l'application linéaire f qui à tout vecteur v(x, y, z) associe
le vecteur v'(x - 2y + z, -x - y + 2z, -x + y). Calculer f(i), f(j) et f(k) et donner la matrice de f dans la base B. 

Somme de matrices :    

Lorsque E et F sont de dimensions finies munis respectivement des bases B et B', soit f et g deux applications linéaires de E vers F. Si :

f(ei) = a1i . e'1 + a2i . e'2 + a3i . e'3 + ...   et g(ei) = b1i . e'1 + b2i . e'2 + b3i . e'3 + ...

alors, en notant respectivement Mf et Mg les matrices de f et g dans les bases B et B', la i-ème colonne de Mf + g est constituée des coordonnées de (f + g)(ei), c'est à dire a1i + b1i , a2i + b2i , ... , ani + bni :

Mf + g = Mf + Mg = (aij + bij)i=1,..p ; j=1,..n                  structures algébriques : cas (2(R), +, x)

Par exemple, dans le cas dimE = dimF = dimG = 2 :

Produit de matrices :    

Lorsque E, F et G sont de dimensions finies et rapportés aux bases respectives B, B' et B", on détermine la matrice de l'application linéaire h = g o f, homomorphisme de E vers G, soit en calculant les images des vecteurs de base, soit en calculant la matrice associée à h.

Si Mh est cette matrice, elle sera, par définition le produit Mg x Mf où Mf et Mg désignent les matrices de f et g dans les bases B et B' d'une part et B' et B" d'autre part.

On constate alors que la matrice Mh s'obtient en faisant en quelque sorte, pour chaque terme hij cherché, le produit scalaire de la ligne i de Mf par la colonne j de Mg. Par exemple, dans le cas dimE = dimF = dimG = 2 :

        hij = gi1f1j + gi2f2j + gi3f3j

Dans le cas général, le produit n'est possible que si le nombre de colonnes de la 1ère matrice égale le nombre de lignes de la seconde : c'est dire que l'espace d'arrivée de f est l'espace de départ de g.

Dans le cas de (E) avec dim E = n, on a :

On voit par cette formule, que le produit de matrices dans (E) n'est pas commutatif. Par exemple :





Calculer M2, M3; En déduire une conjecture sur l'expression de Mn. Vérifier par récurrence  

Matrice unité, Matrice inverse :    

L'application identique idE : vv (ou simplement id) qui à tout vecteur v de E associe v lui-même, laisse inchangés les vecteurs de toute base; c'est dire que la matrice de l'application identique a tous ses termes diagonaux (ceux dont l'indice de ligne est égal à l'indice de colonne) égaux à 1, les autres sont nuls :

On note généralement In et on appelle matrice unité (ou parfois matrice identité), la matrice de l'application identique. La relation f o idE = idE o f = f se traduit par : Mf  x In = In x Mf = Mf : In est l'élément neutre du produit de matrices carrées.


E désignant un espace vectoriel sur R de dimension 2, on considère la matrice 3 x 3 :

On pose B = A - I où I désigne la matrice unité d'ordre 3. Calculer B2 et B3; en déduire A  

Lorsque f est un endomorphisme bijectif (automorphisme) de matrice M relativement à une base B, la matrice de sa réciproque f-1 est appelée matrice inverse de M et noté M-1. On a alors :

M x M-1 = M-1 x M = In

Structures de (2(R), +, x) :               Déterminant et calcul d'une matrice inverse :

exercices M-1 : dim2 , dim3

Matrice colonne (ou unicolonne) et systèmes linéaires :

Dans un espace vectoriel de dimension n, il est souvent pratique d'écrire un vecteur v = x1.e1 + x2.e2 + ... + xn.en sous la forme d'une matrice à n lignes et 1 colonne (vecteur colonne), on écrit :

 Dans ces conditions l'image par une application linéaire de (E,F) d'un vecteur v(x1, ..., xn) sera le vecteur v'(y1, ..., yp) calculé par :

Remarquer que l'on a omis le signe de multiplication entre la matrice de f et le vecteur colonne v. Si l'on sait inverser la matrice M, on peut alors exprimer v en fonction de v' : c'est un moyen élégant de résolution d'un système d'équations linéaires :

Mv = v' v = M-1v'

Calcul d'une matrice inverse :                   Méthode du pivot :


Résolution de systèmes :
système 2 x 2 , système 3 x 3 , système 4 x 4

Espace (E,F) :

Si f est une application linéaire de E vers F et α un scalaire, notons αf l'application de E vers F qui, à tout v de E associe α.f(v). On définit ainsi une loi de composition externe dans l'ensemble, noté (E,F), des applications linéaires de E vers F. Muni, de cette loi et de l'addition des applications, (E,F) est un espace vectoriel sur K.

C'est dire, en particulier :

M kf = kMf

En utilisant la notion de matrice ci-dessus, on montre que si E et F sont de dimensions finies respectives n et p, alors (E,F) est de dimension finie np. En particulier, si E = F, (E,E) est noté simplement (E), espace vectoriel des endomorphismes de E et :

si dim E = n, alors dim (E) = n2.

Si dim E = 1, les seuls endomorphismes de E sont ses homothéties : v k.v, kK. En effet, dans un tel espace, une base est constitué d'un quelconque vecteur non nul u et si f est un endomorphisme de E, on peut écrire :

vE    λK / v = λ.u    f(v) = λ.f(u)

Mais f(u) est un élément de E et il existe donc un élément k de K, tel que f(u) = k.u. Par conséquent,

f(v) = λ.f(u) = λ.(k.u) = (λk).u = (kλ).u = k..u) = k.v

l'endomorphisme f apparaît ainsi comme l'homothétie de rapport k.

 Ce rapport dépend bien évidemment de f mais ne dépend pas de la base {u} choisie, sinon f ne serait pas une application : un élément pourrait alors posséder une infinité d'images; et si cet argument ne vous convainc pas, raisonnez par l'absurde, en changeant de base...     

Anneau et algèbre (E) : 

Il est facile de montrer que si f est élément de (E,F) et g élément de (F,G), alors h = g o f est élément de (E,G), la notation o désigne la loi de composition des applications.

En particulier si F = G = E, l'application composée de deux endomorphismes de E est un endomorphisme de E et on prouve facilement que muni de l'addition et de la loi de composition des applications, (E) est un anneau unitaire, non commutatif dès que dim E > 1 et on peut aussi vérifier que muni de sa loi externe d'espace vectoriel définie précédemment, (E) possède la structure d'algèbre.


Soit f et g dans (E), λ et μ deux scalaires. Montrer que λμ(f o g) = (λf) o (μg)

Le groupe linéaire GL(E) :

Si h est linéaire et bijective de E sur F, alors sa réciproque h-1 est linéaire de F sur E; en effet, si a.u + b.v est une combinaison linéaire d'éléments de F, h étant bijective, il existe un unique couple (x,y) d'éléments de E tels que h(x) = u et h(y) = v. Par suite :

h-1(a.u + b.v) = h-1[a.h(x) + b.h(y)] = h-1[h(a.x + b.y)](h-1 o h)(a.x + b.y) = a.x + b.y

Mais x = h-1(u) et y = h-1(v), donc :

h-1(a.u + b.v) = a.h-1(u) + b.h-1(v) : h-1 est linéaire.

Dans le cas E = F, on vérifie alors aisément que, muni de la loi de composition des applications, l'ensemble des bijections linéaires de (E), appelées automorphismes de E, est un groupe. On l'appelle le groupe linéaire de E; on le note GL(E). Lorsque E est de dimension finie n, en identifiant une application linéaire à sa matrice dans la base canonique.  

Le groupe orthogonal O(E), isométries vectorielles :

Dans un espace vectoriel euclidien E (espace muni d'un produit scalaire), un endomorphisme conservant la norme est qualifié d'orthogonal. Ce sont des bijections de E (automorphismes). On parle aussi d'isométries vectorielles.

Proposition :     

L'automorphisme f conserve la norme si et seulement si f conserve le produit scalaire

Preuve : notons <u,v> le produit scalaire de deux vecteurs de E. Si f conserve le produit scalaire, on a pour tout u de E : <u,u> = <f(u),f(u)>, c'est à dire || u ||2 = || f(u) ||2, donc f conserve la norme. Si f conserve la norme, l'usage de la formule <u,v> = ½ (|| u + v ||2 - || u ||2 - || v ||2) et de l'égalité f(u + v) = f(u) + f(v) conduit à <u,v> = <f(u),f(v)>.

Un automorphisme orthogonal transforme donc toute base orthonormée en une base orthonormée.

L'appellation endomorphisme orthogonal est fallacieuse car elle laisse à penser que conserver l'orthogonalité caractérise une isométrie. Il n'en est rien : considérer l'homothétie vectorielle f(v) = 2v.


E étant de dimension au moins égale à 2, soit D une droite de E et f définie par f(v) = v si vD, f(v) = -v sinon.
L'application f conserve-t-elle la norme ? f est-elle une isométrie ?

Les automorphismes orthogonaux de E constituent un groupe pour la loi de composition des applications appelé groupe orthogonal de E; on le note O(E).  C'est un sous-groupe de GL(E), groupe linéaire de E.

Plus généralement, lorsque E désigne un K-espace vectoriel muni d'une forme quadratique q, Les appellations groupe orthogonal et groupe spécial orthogonal sont aussi utilisées, un automorphisme orthogonal f signifiant alors q(u,v) = q(f(u),f(v)) pour tout u et v.

Le déterminant d'une isométrie (déterminant de sa matrice) est égal à ±1. On note O+(E) ou encore SO(E) le sous-groupe des automorphismes orthogonaux de déterminant +1, appelé groupe spécial orthogonal ou groupe spécial linéaire de E, noté alors SL(E).

Les composées d'une isométrie et d'une homothétie de rapport k > 0 (u k.u), à savoir les similitudes vectorielles, forment un groupe généralement et malencontreusement noté GO(E). Si k = 1, on retrouve le groupe orthogonal O(E).

Similitudes affines :

Les rotations vectorielles :    

En dimension 2 et 3, SO(E) correspond aux rotations vectorielles. Dans le plan, une rotation autre que l'identité n'admet aucun vecteur invariant à l'exception du vecteur nul. Dans l'espace, une rotation vectorielle admet une droite invariante (sous-espace de dimension 1) orthogonale à un plan globalement invariant ("plan de rotation"). La matrice d'une rotation φ peut se ramener, dans une base orthonormée directe, à la forme :

L'angle θ de la rotation est déterminé par cos θ = a et sin θ = b. Si v = φ(u), alors l'angle orienté ^(u,v) mesure θ [2π].

Théorème :      

Si on note <x,y> le produit scalaire de deux vecteurs de E, alors les assertions suivantes sont équivalentes :

(x,y) de E2 : <f(x),f(y)> = <x,y>

Les symétries vectorielles orthogonales : 

Les isométries de déterminant -1, parfois dites éléments de O-(E), ne constituent pas un groupe : la composée de deux telles isométries est un élément de O+(E). On parle parfois d'isométrie négative.

Une isométrie involutive, c'est à dire vérifiant f o f = id, coïncide avec sa réciproque et prend le nom, dans l'espace euclidien usuel, de symétrie vectorielle orthogonale (ou de réflexion vectorielle) lorsqu'elle est distincte de l'application identique. Il peut s'agir d'une symétrie vectorielle orthogonale par rapport à une droite ou par rapport à un plan.

       Isométries affines :                 Etude d'une symétrie vectorielle orthogonale 

Sous espaces fondamentaux, image et noyau d'une application linéaire :

Quelques définitions et résultats fondamentaux que l'on pourra prouver facilement en utilisant ce théorème non moins fondamental :

Une partie non vide P d'un espace vectoriel en est un sous-espace vectoriel si et seulement si toute combinaison linéaire d'éléments de P est un élément de P.

φ désignant une application linéaire, élément de (E,F), l'étude de ces applications fait intervenir des sous-espaces vectoriels fondamentaux comme :

  1. l'ensemble des éléments de F images par φ d'(au moins) un élément de E.
    C'
    est un sous-espace vectoriel de E, généralement noté Im(φ).

φ surjective Im(φ) = F

  1. l'ensemble des vecteurs v de E tels que φ(v) = 0F, appelé noyau de φ.
    C'
    est un sous-espace vectoriel de E, généralement noté Ker(φ), cette notation provient de l'allemand Kern = noyau.

φ injective Ker(φ) = {0E}    

  De 1 et 2, on  conclut que φ est bijective ssi si Ker(φ) = {0E} et Im(φ) = F. Lorsque E et F sont de même dimension finie (en particulier si F = E), la condition se réduit à Ker(φ) = {0E}

 Si E et F n'ont pas la même dimension, le résultat ci-dessus est en défaut. Considérer l'application f : R2 R3 , φ(x,y) = (x,y,0). Elle est linéaire, son noyau est réduit à (0,0), vecteur nul de R2 et φ n'est pas bijective puisque non surjective. De plus, la condition de dimension finie est indispensable : voir sur cette page (exercice 5), un exemple d'un endomorphisme d'un espace vectoriel de dimension infinie, non bijectif, de noyau nul.

  1. l'ensemble des vecteurs de E invariants par φ, c'est à dire tels que φ(v) = v.
    C'
    est un sous-espace vectoriel de E, souvent noté Inv(φ). Noter que Inv(

  2. l'ensemble des vecteurs de E changés en leur opposé par φ, c'est à dire tels que φ(v) = -v.
    C'
    est un sous-espace vectoriel de E, souvent noté Inv(φ).

  3. Plus généralement, l'ensemble des vecteurs de E tels que φ(v) = λv. Lorsque v existe et est non nul, on dit que v est un vecteur propre de φ associé à la valeur propre λ.

  Symétrie vectorielle | Projection vectorielle           Valeurs propres, vecteurs propres :

Théorème des dimensions :

dim Ker(f) + dim Im(f) = dim (E)

Lorsque E = F, il arrive que Im(f) et Ker(f) soient supplémentaires dans E; cela se produit si et seulement si Ker(f)Im(f) = {0E}. On a trop tendance à penser qu'il en est toujours ainsi. Trois exemples simples et flagrants montrant que non, sont donnés dans l'exercice 4 de cette page.

Dans l'exemple 1 ci-dessus, on vérifiera facilement que Ker(f) est la droite vectorielle engendrée par u = 2i - j + 3k. L'image de f est donc de dimension 2 (plan vectoriel) engendré par deux vecteurs indépendants extraits du système de vecteurs images {f(i), f(j), f(k)}. On peut choisir f(i) et f(j) car le déterminant,

extrait du tableau de coordonnées de ces vecteurs est non nul.       produit vectoriel

Etude d'une symétrie vectorielle en dimension 3 :     

L'espace E est de dimension 3 sur R; B = (i, j, k) est une base de E; on considère l'endomorphisme f de E dont la matrice relativement à B est :

i/ Calculer M2 = M x M. En déduire que f est un automorphisme de E vérifiant f-1 = f. (automorphisme involutif ou involution).

ii/ Montrer que l'ensemble des vecteurs invariants par f est un sous-espace vectoriel P de dimension 2 (plan vectoriel) engendré par u = i + j et v = i - k.

iii/ Montrer que l'ensemble des vecteurs changés en leur opposé est un sous-espace vectoriel D de dimension 1 (droite vectorielle) engendré par w = i - j + k.

4i/ En se rappelant que la matrice de f dans la base (u,v,w) est l'écriture en colonnes de f(u), f(v), f(w), montrer que la matrice de f dans la base (u, v, w) est :

On dit que f est la symétrie vectorielle par rapport à P suivant la direction D.

Série d'exercices "linéaires"... :                 Isométrie, Matrice de rotation :


© Serge Mehl - www.chronomath.com