Orthogonale en symmetrische afbeeldingen: Orthogonale afbeeldingen
Enkele eigenschappen van orthogonale afbeeldingen
Hier zijn enkele algemene eigenschappen van orthogonale afbeeldingen.
Eigenschappen van orthogonale afbeeldingen Laat #V# een reële inproductruimte zijn en #L:V\to V# een orthogonale afbeelding.
- Als #M :V\rightarrow V# ook een orthogonale afbeelding is, dan is de samenstelling #L\,M# ook orthogonaal.
- De afbeelding #L# is injectief.
- Als #V# eindigdimensionaal is, dan is #L# inverteerbaar en is ook #L^{-1}# orthogonaal.
- Elke reële eigenwaarde van #L# is gelijk aan #1# of #-1#.
- Als #W# een eindigdimensionale lineaire deelruimte van #V# is die invariant is onder #L#, dan is ook het orthogonale complement #W^\perp# invariant onder #L#.
- Als #L# het orthogonale complement van een vector #\vec{v}# ongelijk #\vec{0}# van #V# vast houdt, dan is #L# hetzij de identiteit hetzij de orthogonale spiegeling #S_{\vec{v}}#.
#A = # # \matrix{-{{1}\over{9}} & {{8}\over{9}} & {{4}\over{9}} \\ {{8}\over{9}} & -{{1}\over{9}} & {{4}\over{9}} \\ {{4}\over{9}} & {{4}\over{9}} & -{{7}\over{9}} \\ }#
De vector #\rv{2,2,1}# wordt vastgehouden door #L# en ligt dus in de eigenruimte bij eigenwaarde #1#. Omdat #L# orthogonaal is, zijn de enige reële eigenwaarden #1# en #-1#. De eigenruimte bij eigenwaarde #-1# is dus #1#-dimensionaal of #2#-dimensionaal. In het eerste geval zou er een niet-reële eigenwaarde moeten zijn, maar dan zou de complex geconjugeerde ook een eigenwaarde moeten zijn, wat onmogelijk is omdat de dimensie van de inproducruimte gelijk is aan #3#. De eigenruimte van #L# bij eigenwaarde #-1# heeft dus dimensie #2#.
We zoeken een vector die loodrecht staat op zowel \( \rv{2,2,1}\) als \(\rv{1,0,-2}\). Deze is te vinden door het oplossen van een stel lineaire vergelijkingen. Een snellere methode gebruikt het uitproduct:
\[\rv{2,2,1}\times \rv{1,0,-2} = \rv{-4,5,-2 }\]Dit moet een eigenvector zijn van #L# bij eigenwaarde #-1#. Zo vinden we dat de matrix #L_\beta# van #L# ten opzichte van de basis
\[\beta = \basis{\rv{2,2,1},\rv{1,0,2},\rv{-4,5,-2 }}\] de diagonaalmatrix is met op de diagonaal #1#, #-1#, #-1#. We concluderen dat de matrix van #L# (ten opzichte van de standaardbasis #\varepsilon#) gelijk is aan
\[\begin{array}{rcl} L_{\varepsilon} &=& {}_\varepsilon I_\beta \,L_\beta \, {}_\beta I_\varepsilon\\
&=&\matrix{2 & 1 & -4 \\ 2 & 0 & 5 \\ 1 & -2 & -2 \\ }\,\matrix{1 & 0 & 0 \\ 0 & -1 & 0 \\ 0 & 0 & -1 \\ } \,\matrix{2 & 1 & -4 \\ 2 & 0 & 5 \\ 1 & -2 & -2 \\ }^{-1} \\
&=&\matrix{2 & -1 & 4 \\ 2 & 0 & -5 \\ 1 & 2 & 2 \\ }\, \matrix{{{2}\over{9}} & {{2}\over{9}} & {{1}\over{9}} \\ {{1}\over{5}} & 0 & -{{2}\over{5}} \\ -{{4}\over{45}} & {{1}\over{9}} & -{{2}\over{45}} \\ } \\
&=& \matrix{-{{1}\over{9}} & {{8}\over{9}} & {{4}\over{9}} \\ {{8}\over{9}} & -{{1}\over{9}} & {{4}\over{9}} \\ {{4}\over{9}} & {{4}\over{9}} & -{{7}\over{9}} \\ }
\end{array}\]
De vector #\rv{2,2,1}# wordt vastgehouden door #L# en ligt dus in de eigenruimte bij eigenwaarde #1#. Omdat #L# orthogonaal is, zijn de enige reële eigenwaarden #1# en #-1#. De eigenruimte bij eigenwaarde #-1# is dus #1#-dimensionaal of #2#-dimensionaal. In het eerste geval zou er een niet-reële eigenwaarde moeten zijn, maar dan zou de complex geconjugeerde ook een eigenwaarde moeten zijn, wat onmogelijk is omdat de dimensie van de inproducruimte gelijk is aan #3#. De eigenruimte van #L# bij eigenwaarde #-1# heeft dus dimensie #2#.
We zoeken een vector die loodrecht staat op zowel \( \rv{2,2,1}\) als \(\rv{1,0,-2}\). Deze is te vinden door het oplossen van een stel lineaire vergelijkingen. Een snellere methode gebruikt het uitproduct:
\[\rv{2,2,1}\times \rv{1,0,-2} = \rv{-4,5,-2 }\]Dit moet een eigenvector zijn van #L# bij eigenwaarde #-1#. Zo vinden we dat de matrix #L_\beta# van #L# ten opzichte van de basis
\[\beta = \basis{\rv{2,2,1},\rv{1,0,2},\rv{-4,5,-2 }}\] de diagonaalmatrix is met op de diagonaal #1#, #-1#, #-1#. We concluderen dat de matrix van #L# (ten opzichte van de standaardbasis #\varepsilon#) gelijk is aan
\[\begin{array}{rcl} L_{\varepsilon} &=& {}_\varepsilon I_\beta \,L_\beta \, {}_\beta I_\varepsilon\\
&=&\matrix{2 & 1 & -4 \\ 2 & 0 & 5 \\ 1 & -2 & -2 \\ }\,\matrix{1 & 0 & 0 \\ 0 & -1 & 0 \\ 0 & 0 & -1 \\ } \,\matrix{2 & 1 & -4 \\ 2 & 0 & 5 \\ 1 & -2 & -2 \\ }^{-1} \\
&=&\matrix{2 & -1 & 4 \\ 2 & 0 & -5 \\ 1 & 2 & 2 \\ }\, \matrix{{{2}\over{9}} & {{2}\over{9}} & {{1}\over{9}} \\ {{1}\over{5}} & 0 & -{{2}\over{5}} \\ -{{4}\over{45}} & {{1}\over{9}} & -{{2}\over{45}} \\ } \\
&=& \matrix{-{{1}\over{9}} & {{8}\over{9}} & {{4}\over{9}} \\ {{8}\over{9}} & -{{1}\over{9}} & {{4}\over{9}} \\ {{4}\over{9}} & {{4}\over{9}} & -{{7}\over{9}} \\ }
\end{array}\]
Ontgrendel volledige toegang
Toegang voor leraar
Vraag een demo account aan. Wij helpen je graag op weg met onze digitale leeromgeving.
Toegang voor student
Is jouw universiteit niet aangesloten?
Via Pass Your Math kan je toegang krijgen tot onze cursussen onafhankelijk van je onderwijsinstelling. Bekijk de prijzen en nog veel meer. Of ga naar
omptest.org als je een OMPT examen moet maken.
omptest.org als je een OMPT examen moet maken.