We hebben gezien dat het niet altijd mogelijk is een basis van eigenvectoren te vinden voor een lineaire afbeelding van een eindigdimensionale vectorruimte naar zichzelf. We brengen in herinnering dat een vierkante matrix #A# diagonaalvorm heeft of een diagonaalmatrix is als alle #(i,j)#-elementen met #i\neq j# gelijk aan nul zijn. We bespreken hoe je na kunt gaan of dit het geval is.
Een lineaire afbeelding #L: V\to V#, waarbij #V# een eindigdimensionale vectorruimte is, heet diagonaliseerbaar als #V# een basis #\alpha# heeft, zodat #L_\alpha# een diagonaalmatrix is.
De matrix #A# heet diagonaliseerbaar als #L_A# diagonaliseerbaar is. Als meer precisie vereist is en #V# is reëel (respectievelijk complex), dan zeggen we dat #A# diagonaliseerbaar is over de reële (respectievelijk complexe) getallen.
De #(n\times n)#-matrix #A# is dan en slechts dan diagonaliseerbaar als ze geconjugeerd is met een diagonaalmatrix. Dit betekent dat er een inverteerbare #(n\times n)#-matrix #T# is, zodanig dat #T AT^{-1}# diagonaal is. Vanwege stelling Basisovergang in termen van matrices is dit equivalent met het feit dat #L_A# een diagonaalmatrix heeft met betrekking tot een geschikte basis voor #\mathbb{R}^n#.
De matrix \[A = \matrix{1&1\\ 0&1}\] is niet diagonaliseerbaar. Want anders zouden er getallen #a# en #b# zijn, zodat #A# geconjugeerd is met #D=\matrix{a&0\\ 0&b}#. Maar dan geldt\[\begin{array}{rclclclcl}a+b &=&\text{tr}(D) &=& \text{tr}(A )&=&1+1 &=& 2 \\ a\cdot b &=&\det(D) &=& \det(A) &=&1\cdot 1 -1\cdot 0 &=& 1 \end{array}\]Vullen we de gelijkheid #b = 2 - a#, die verkregen is uit de eerste vergelijking, in in de tweede vergelijking, dan krijgen we de vierkantsvergelijking #a^2-2 a+1=0#, die als enige oplossing #a =1 # heeft. Dit impliceert #b = 1#, zodat #D = I_2#, de identiteitsmatrix, is. Dat betekent dat er een inverteerbare #(2\times2)#-matrix #T# is met #A = T \,I_2T^{-1}=I_2 #. Dit spreekt het feit tegen dat het #(1,2)#-element van #A# gelijk is aan #1#.
Het kan gebeuren dat een vierkante matrix met reële elementen niet diagonaliseerbaar is als we de matrix zien als een lineaire afbeelding van een reële vectorruimte, maar wel als we de matrix zien als een lineaire afbeelding van een complexe vectorruimte (een complexificatie van #V#).
Een bekend voorbeeld is de matrix #\matrix{0&1\\ -1&0}# met complexe eigenwaarden #\ii# en #-\ii#.
Om het onderscheid te benoemen, spreken we van diagonaliseerbaarheid over de reële en over de complexe getallen.
De volgende uitspraak is gemakkelijk te begrijpen maar van groot belang:
Laat #V# een vectorruimte van eindige dimensie #n# zijn met basis #\alpha#. De volgende uitspraken voor een lineaire afbeelding #L:V\to V# zijn equivalent.
- #L# is diagonaliseerbaar.
- #L_\alpha# is diagonaliseerbaar.
- De som van de dimensies van de eigenruimten van #L# over alle eigenwaarden is gelijk aan #n#.
- Er is een inverteerbare #(n\times n)#-matrix #T#, zodat #T^{-1}L_\alpha T# een diagonaalmatrix is.
In dit geval vormen de kolommen van de matrix #T# een basis van #\mathbb{R}^n# respectievelijk #\mathbb{C}^n# (als #V# een reële respectievelijk complexe vectorruimte is) bestaande uit eigenvectoren van #L_\alpha#.
Dit herhaalt wat we hiervoor bespraken: het volgt uit stelling Basisovergang in termen van matrices dat er dan en slechts dan een basis #\beta# voor #V# is, zodat #L_\beta# diagonaal is, als er een inverteerbare #(n\times n)#-matrix #S# is, zodat #SL_\alpha S^{-1}# diagonaal is. In uitspraak 4 nemen we #T = S^{-1}#.
We zagen dat de matrix \(A = \matrix{0&1\\ 0&0}\) niet diagonaliseerbaar is. Dit betekent dat #\mathbb{R}^2# geen basis van eigenvectoren van #L_A# heeft (in feite heeft zelfs #\mathbb{C}^2# niet zo'n basis). De vector #\rv{1,0}# is een eigenvector van #L_A# met eigenwaarde #0#. Iedere andere eigenvector van #L_A# ligt in het opspansel van #\rv{1,0}#. Deze matrix is evenmin diagonaliseerbaar over de complexe getallen.
Als er een inverteerbare #(n\times n)#-matrix #T# is, zodat #T^{-1}L_{\alpha}T# een diagonaalmatrix is, dan kan #T# gevonden worden als een matrix waarvan de kolommen een basis van eigenvectoren van #L_{\alpha}# vormen. De bepaling van die basis is mogelijk met een eerder beschreven procedure.
Een direct gevolg van de stelling Herkenning van diagonaliseerbaarheid is dat we voor een diagonaliseerbare lineaire afbeelding #L# een basis kunnen vinden ten opzichte waarvan de matrix van de afbeelding de diagonaalvorm heeft door te beginnen met een willekeurige basis #\alpha# en een conjugerende matrix #T# te berekenen, zodat #T^{-1}L_{\alpha}T# een diagonaalmatrix is:
Laat #V# een eindigdimensionale vectorruimte zijn met basis #\alpha# en #L:V\to V# een lineaire afbeelding.
Als #L# diagonaliseerbaar is, dan kunnen we een inverteerbare matrix #T# vinden met als kolommen eigenvectoren van #L_\alpha#, zodanig dat #T^{-1}L_{\alpha}T# een diagonaalmatrix is. De samenstelling #\beta = L_T^{-1}\,\alpha# is dan een coördinatisering van #V# met de eigenschap dat #L_\beta# een diagonaalmatrix is.
Als #L_\alpha# al een diagonaalmatrix is, dan volstaat #T = I_n#, waarbij #n=\dim{V}#.
Stel #L# is diagonaliseerbaar. Volgens bovenstaande stelling is dan ook de matrix #L_{\alpha}# diagonaliseerbaar. Dat betekent dat er een inverteerbare matrix #T# is, zodat #D= T^{-1} L_\alpha T# een diagonaalmatrix is. Na vermenigvuldiging van beide leden met #T# vinden we dat \[L_\alpha\, T \vec{e}_i= T\, D\vec{e}_i\] voor elke #i=1,\ldots,n#, waarbij #\basis{\vec{e}_1,\ldots,\vec{e}_n}# de standaardbasis van #\mathbb{R}^n# respectievelijk #\mathbb{C}^n# is (als #V# reëel respectievelijk complex is). Links staat dan het beeld van de vector \( T \vec{e}_i\) onder #L_\alpha# en rechts het scalaire veelvoud van deze vector met #d_{i}#, het #i#-de diagonaalelement van #D#. Dit laat zien dat de #i#-de kolom \( T \vec{e}_i\) van #T# een eigenvector is van #L_\alpha# bij eigenwaarde #d_i#.
Omdat #L_T^{-1} = \beta\,\alpha^{-1}# concluderen we dankzij de stelling Basisovergang dat \[L_\beta =\beta \alpha^{-1} \, L_\alpha \left(\beta \alpha^{-1}\right)^{-1} =T^{-1} L_{\alpha}\left(T^{-1}\right)^{-1} =T^{-1} L_{\alpha}T = D\]
Als er een basis van eigenvectoren blijkt te bestaan, is het opstellen van de matrix ten opzichte van zo'n basis eenvoudig: de matrix is een diagonaalmatrix met langs de diagonaal precies de eigenwaarden (in dezelfde volgorde als waarin de corresponderende eigenvectoren in de basis staan). Er hoeven dus geen expliciete transformaties berekend te worden.
De methode is ook toepasbaar om te onderzoeken of een lineaire afbeelding wel diagonaliseerbaar is.
Voor welke waarde van #b# is onderstaande #(2\times2)#-matrix #A# niet diagonaliseerbaar over de complexe getallen?
\[ A = \matrix{-4 & b \\ -9 & -5}\]
#b = # #{{1}\over{36}}#
De matrix #A# is niet gelijk aan een scalair veelvoud van de identiteit. Daarom is #A# dan en slechts dan diagonaliseerbaar (over de complexe getallen) als ze twee verschillende (mogelijk complexe) eigenwaarden heeft.
Dit is dan en slechts dan het geval als de
karakteristieke veelterm twee verschillende (mogelijk complexe) wortels heeft.
De karakteristieke veelterm is
\[p_A(x) = x^2-\text{tr}(A)+\det(A) =x^2+9 x+9 b+20 \] De
discriminant van deze kwadratische veelterm is #1-36 b#. Nu heeft #A# dan en slechts dan precies één wortel (die dan reëel moet zijn) als #1-36 b = 0#. Oplossen van deze lineaire vergelijking in #b# geeft #b = {{1}\over{36}}#.