Als #A# en #B# beide #( n\times n)#-matrices zijn, dan geldt
\[\begin{array}{lrcl}\text{determinant van de getransponeerde: }& \det (A)&=&\det (A^\top)\\\text{determinant van het product: } &\det (A\ B)&=&\det (A)\cdot\det (B)\end{array} \]
Determinant van de getransponeerde: In onderstaande afleiding gebruiken we de volgende twee feiten:
- een permutatie #\sigma# heeft het zelfde teken heeft als zijn inverse #\sigma^{-1}# (want als #\sigma# het product is van een stel transposities, dan is #\sigma^{-1}# het product van die transposities in omgekeerde volgorde).
- Als #\sigma# alle permutaties van #\{1,\ldots,n\}# doorloopt, dan doet #\sigma^{-1}# dat ook (want de afbeelding die aan een permutatie de inverse toevoegt, is bijectief op de eindige verzameling van permutaties van #\{1,\ldots,n\}# omdat de afbeelding haar eigen inverse is).
Omdat het #(i,j)#-element van #A^\top# gelijk is aan #a_{ji}#, geldt per definitie van de determinant:\[\det(A^{\top})=\sum_{\sigma}\text{sg}(\sigma)\cdot a_{\sigma(1)1}\cdots a_{\sigma(n)n}\]Voor elke #i# in #\{1,\ldots,n\}# schrijven we #a_{\sigma(i)i}=a_{j\sigma^{-1}(j)}# waarin #j=\sigma(i)# ook in #\{1,\ldots,n\}# zit. Vervolgens sorteren we de factoren #a_{j\sigma^{-1}(j)}# in het product op volgorde van de eerste index #j#:\[\det(A^{\top})=\sum_{\sigma}\text{sg}(\sigma)\cdot a_{1\sigma^{-1}(1)}\cdots a_{n\sigma^{-1}(n)}\]Hieruit volgt:
\[\begin{array}{rcl}\det(A^{\top}) &=&\sum_{\sigma}\text{sg}(\sigma)\cdot a_{\sigma(1)1}\cdots a_{\sigma(n)n}\\&&\phantom{xx}\color{blue}{\text{definitie }\det\text{; het }(i,j)\text{-element van }A^\top\text{ is }a_{ji}}\\ &=&\sum_{\sigma}\text{sg}(\sigma)\cdot a_{1\sigma^{-1}(1)}\cdots a_{n\sigma^{-1}(n)}\\ &&\phantom{xx}\color{blue}{\text{het zelfde product van }a_{ij}\text{ in andere volgorde}}\\&=&\sum_{\sigma}\text{sg}(\sigma^{-1})\cdot a_{1\sigma(1)}\cdots a_{n\sigma(n)}\\ &&\phantom{xx}\color{blue}{\sigma \text{ in elke factor vervangen door }\sigma^{-1}}\\ &=&\sum_{\sigma}\text{sg}(\sigma)\cdot a_{1\sigma(1)}\cdots a_{n\sigma(n)}\\ &&\phantom{xx}\color{blue}{\text{sg}(\sigma^{-1}) =\text{sg}(\sigma)}\\ &=& \det(A) \\ &&\phantom{xx}\color{blue}{\text{definitie van }\det}\end{array}\]
Determinant van het product: Bekijk de functie #E# van #n# kolomvectoren in #\mathbb{R}^n# gedefinieerd door\[E(\vec{b}_1,\ldots,\vec{b}_n) = \det\left(A\, B\right)\]waarin #A# een vast gekozen #(n\times n)#-matrix is en #B# de #(n\times n)#-matrix met kolommen #\vec{b}_1,\ldots,\vec{b}_n# is. We gaan na dat #E(\vec{b}_1,\ldots,\vec{b}_n)# aan de eerste twee eisen voor een determinantfunctie voldoet.
- Multilineariteit: Omdat #A# lineair is en #\det# lineair is in elk argument, is ook #E# lineair in elk argument.
- Antisymmetrie: Door verwisseling van twee vectoren in de argumenten gaat de waarde van de determinant in zijn tegengestelde over, en dus ook de waarde van #E(\vec{b}_1,\ldots,\vec{b}_n)#.
Volgens de karakterisering van de determinant geldt dus #E(\vec{b}_1,\ldots,\vec{b}_n) = E(\vec{e}_1,\ldots,\vec{e}_n)\cdot \det(B)#, zodat:\[\begin{array}{rcll}\det(A\, B )&=&E(\vec{b}_1,\ldots,\vec{b}_n)&\color{blue}{\text{functievoorschrift }E(B)}\\&=&E(\vec{e}_1,\ldots,\vec{e}_n)\cdot \det(B)&\color{blue}{E\text{ is multilineair en antisymmetrisch}}\\&=&\det(A\, I)\cdot\det(B)&\color{blue}{\text{functievoorschrift }E(I)}\\&=&\det(A)\cdot\det(B)&\color{blue}{A\, I=A}\end{array}\]
We hebben
eerder gezien dat #A# en #B# niet altijd commuteren, dat wil zeggen: #A\,B =B\, A# geldt niet altijd (als #n\gt 1#). Maar #\det(A\, B) = \det(B\, A)# geldt wel altijd, want #\det(A)\cdot\det(B) = \det(B)\cdot\det(A) #.
Een bijzonder gevolg van bovenstaande productformule is een criterium voor inverteerbaarheid van een matrix:
Een vierkante matrix #A# is dan en slechts dan inverteerbaar als de determinant van #A# ongelijk aan #0# is.
In dat geval geldt #\det(A^{-1}) = \frac{1}{\det(A)}#.
Volgens bovenstaande stelling en Inverteerbaarheid en rang heeft een #(n\times n)#-matrix #A# dan en slechts dan rang kleiner dan #n# als #\det(A) = 0#.
Algemener geldt dat de rang van een niet-nulmatrix #A# het grootste natuurlijke getal #r# is waarvoor de determinant van een #(r\times r)#-deelmatrix van #A# ongelijk is aan #0#.
We bespreken nog enkele speciale gevallen.
- De determinant van een vierkante matrix van de vorm \[M = \matrix{A&C\\ 0&B}\] waarbij #A# en #B# vierkante deelmatrices zijn en #C# een willekeurige deelmatrix van passende afmetingen, is gelijk aan het product van de determinanten van de twee deelmatrices langs de diagonaal: \[\det(M) = \det(A)\cdot\det(B)\]
- De determinant van een vierkante matrix van de vorm \[M = \matrix{a_{11}&a_{12}&\cdots&\cdots&a_{1n}\\ 0&a_{22}&a_{23}&\cdots&a_{2n}\\ 0&0&\ddots&\cdots&a_{3n}\\\vdots&\vdots&\ddots&a_{(n-1)(n-1)}&\vdots\\ 0&0&\cdots&0&a_{nn}}\]is gelijk aan het product van de diagonaalelementen: \[\det(M) = a_{11}\cdot a_{22}\,\cdots\, a_{nn}\]
De eerste uitspraak volgt uit de somformule:
\[\det(M) =\sum_{\sigma}\text{sg}(\sigma)\cdot m_{1\sigma(1)}\cdots m_{n\sigma(n)}
\] waarbij #M# de #(n\times n)#-matrix is met #(i,j)#-element #m_{ij}#. Stel dat #A# afmetingen #k\times k# heeft, zodat #B# afmetingen #(n-k)\times(n-k)# heeft. Stel dat #\sigma# een permutatie van #\{1,\ldots,n\}# is waarvoor de term \[\text{sg}(\sigma)\cdot m_{1\sigma(1)}\cdots m_{n\sigma(n)}\] een element van de matrix #C# heeft. Dan is er een index #i\le k# met #\sigma(i)\gt k#. Dit betekent dat de #i#-de rij van #A# geen bijdrage aan deze term geeft, en dat er dus een element #m_{j\sigma(j)}# moet zijn met een bijdrage aan deze term uit een rij onder de matrix #A# en in een kolom links van de matrix #B#, dat wil zeggen: met #j\gt k# en #\sigma(j)\leq k#. Maar #m_{j\sigma(j)}=0#, dus de waarde van de term is #0#. We concluderen dat de termen met een element uit #C# niet bijdragen aan de somformule voor #\det(M)#.
Hieronder zie je een voorbeeld van een term uit de somformule met een element uit #C#. In dit voorbeeld is #n=5#, #i=2#, #j=5# en #k=3#. De gekozen permutatie is #\sigma=[3,4,2,5,1]# zodat #\text{sg}(\sigma)=1#, #\sigma(i)=\sigma(2)=4# en #\sigma(j)=\sigma(5)=1#:\[\begin{array}{rcl}\text{sg}(\sigma)\cdot m_{1\sigma(1)}\cdot m_{2\sigma(2)}\cdot m_{3\sigma(3)}\cdot m_{4\sigma(4)}\cdot m_{5\sigma(5)}&=& m_{13}\cdot m_{24}\cdot m_{32}\cdot m_{45}\cdot m_{51}\\&=&a_{13}\cdot c_{21}\cdot a_{32}\cdot b_{12}\cdot 0\\&=&0\end{array}\]De factoren uit deze term zijn blauw gekleurd in de bijbehorende matrix #M#: \[\left(\!\begin{array}{ccc|cc}a_{11}&a_{12}&\color{blue}{a_{13}}&c_{11}&c_{12}\\a_{21}&a_{22}&a_{23}&\color{blue}{c_{21}}&c_{22}\\a_{31}&\color{blue}{a_{32}}&a_{33}&c_{31}&c_{32}\\\hline 0&0&0&b_{11}&\color{blue}{b_{12}}\\\color{blue}{0}&0&0&b_{21}&b_{22}\end{array}\!\right)\]
De sommatie over alle permutaties #\sigma# van #\{1,\ldots,n\}# kunnen we daarom beperken tot een sommatie over permutaties #\sigma'# van #\{1,\ldots,n\}# waarvoor geldt dat #\sigma'(i)\leq k# voor alle #i\leq k# (en dus #\sigma'(i)\gt k# voor alle #i\gt k#). Dit zijn permutaties die elementen uit #\{1,\ldots,k\}# afbeelden op elementen uit #\{1,\ldots,k\}# (en dus elementen uit #\{k+1,\ldots,n\}# op elementen uit #\{k+1,\ldots,n\}#):\[\sigma'=[\underbrace{\sigma'(1),\ldots,\sigma'(k)}_{\text{permutatie van }\{1,\ldots,k\}},\underbrace{\sigma'(k+1),\ldots,\sigma'(n)}_{\text{permutatie van }\{k+1,\ldots,n\}}]\]Voor elke permutatie #\sigma'# bestaan dus permutaties #\rho# van #\{1,\ldots,k\}# en #\tau# van #\{1,\ldots,n-k\}# zodat:\[\sigma'=\rv{\rho(1),\ldots,\rho(k),k+\tau(1),\ldots,k+\tau(n-k)}\]Wanneer we #\rho# en #\tau# beide schrijven als een product van transposities waarbij we de getallen in de transposities van #\tau# met #k# verhogen, dan is #\sigma'# het product van beide producten. Daaruit volgt: \[\text{sg}(\sigma')=\text{sg}(\rho)\cdot\text{sg}(\tau)\]Nemen we bijvoorbeeld #n=5#, #k=3# en #\sigma'=[3,1,2,5,4]#, dan is #\rho=[3,1,2]# en #\tau=[2,1]#:\[\left(\!\begin{array}{ccc|cc}a_{11}&a_{12}&\color{blue}{a_{13}}&c_{11}&c_{12}\\\color{blue}{a_{21}}&a_{22}&a_{23}&c_{21}&c_{22}\\a_{31}&\color{blue}{a_{32}}&a_{33}&c_{31}&c_{32}\\\hline 0&0&0&b_{11}&\color{blue}{b_{12}}\\0&0&0&\color{blue}{b_{21}}&b_{22}\end{array}\!\right)\]Inderdaad is #\sigma'=(1,3)(2,3)(4,5)# het product van #\rho=(1,3)(2,3)# en #\tau=(1,2)# indien we de getallen in de transpositie #\tau# verhogen met #k=3#.
Uit al het bovenstaande volgt: \[\begin{array}{rcl}\det(M) &=&\sum_{\sigma}\text{sg}(\sigma)\cdot m_{1\sigma(1)}\cdots m_{n\sigma(n)}\\&&\color{blue}{\text{definitie} \det}\\&=&\sum_{\sigma'}\text{sg}(\sigma')\cdot m_{1\sigma'(1)}\cdots m_{n\sigma'(n)}\\&&\color{blue}{\text{beperking van }\sigma\text{ tot }\sigma'\text{ want overige termen zijn nul}}\\&=&\sum_{\rho}\sum_{\tau}\text{sg}(\rho)\cdot\text{sg}(\tau)\cdot m_{1\rho(1)}\cdots m_{k\rho(k)}\cdot m_{(k+1)(k+\tau(1))}\cdots m_{n(k+\tau(n-k))}\\&&\color{blue}{\sum_{\sigma'}=\sum_{\rho}\sum_{\tau}}\\&&\color{blue}{\text{sg}(\sigma')=\text{sg}(\rho)\cdot\text{sg}(\tau)}\\&&\color{blue}{\sigma'=\rv{\rho(1),\ldots,\rho(k),k+\tau(1),\ldots,k+\tau(n-k)}}\\&=&\left(\sum_{\rho}\text{sg}(\rho)\cdot m_{1\rho(1)}\cdots m_{k\rho(k)}\right)\cdot\left(\sum_{\tau}\text{sg}(\tau)\cdot m_{(k+1)(k+\tau(1))}\cdots m_{n(k+\tau(n-k))}\right)\\&&\color{blue}{\text{factoren handig geordend}}\\&=&\det(A)\cdot\det(B)\\&&\color{blue}{\text{tweemaal definitie} \det}
\end{array}\]
De tweede uitspraak volgt uit de eerste door herhaalde toepassing met #A# een #(1\times1)#-matrix: Laat #n# het aantal kolommen van #M# zijn. Als #n = 1#, dan is de te bewijzen uitspraak waar: #\det(M) = a_{11}#. Als #n\gt 1# dan volgt met inductie:
\[\begin{array}{rcl}\det(M) &=&a_{11}\cdot \det\matrix{a_{22}&a_{23}&\cdots&\cdots&a_{2n}\\ 0&a_{33}&a_{34}&\cdots&a_{3n}\\ 0&0&\ddots&\cdots&a_{4n}\\\vdots&\vdots&\ddots&a_{(n-1)(n-1)}&\vdots\\ 0&0&\cdots&0&a_{nn}}\\ &&\phantom{xxx}\color{blue}{\text{uitspraak 1 met }A=\matrix{a_{11}}}\\ &=&a_{11}\cdot a_{22}\cdots a_{nn}\\ &&\phantom{xxx}\color{blue}{\text{inductie hypothese}}\end{array}\]
Beide gevallen zijn instanties van een algemenere stelling, die zegt dat de determinant van een vierkante matrix van de vorm \[ \matrix{A_1&*&*&*&*\\ 0&A_2&*&*&*\\0&0&\ddots&\ddots&\vdots\\ \vdots&\vdots&\ddots&\ddots&*\\ 0&0&\cdots&0&A_m}\]
waarbij de #A_i# vierkante matrices zijn en elke #*# voor een willekeurige deelmatrix van geschikte afmeting staat, gelijk is aan \[\det(A_1)\cdot \det(A_2)\cdots \det(A_m)\]
Zoals we eerder zagen heet een matrix van de vorm beschreven in de tweede uitspraak heet een bovendriehoeksmatrix
Later zullen we zien hoe deze wetten helpen om de determinant van een matrix efficiënt te berekenen.
Voor welke waarde van #a# is de determinant van onderstaande matrix #A# gelijk aan #-390#?
\[ A = \matrix{2 a & -3 a & 4 a \\ 4 & -5 & 2 \\ 8 & 1 & 3 \\ }\]
#a=# #-3#
De variabele #a# komt voor in elk element op de eerste rij, zodat
\[A = \matrix{a&0&0\\ 0&1&0\\ 0&0&1}\, \matrix{2 & -3 & 4 \\ 4 & -5 & 2 \\ 8 & 1 & 3 \\ }\] De determinant van de eerste matrix van het rechter lid is #a# en de determinant van de tweede is #130#. De
productformule voor de determinant geeft dus
\[-390= a \cdot 130\] waaruit onmiddellijk volgt dat #a = -3#.