En vektor defineret af en lineær operator kaldes. Lineære operatorer

Diagonale matricer har den enkleste struktur. Spørgsmålet opstår, om det er muligt at finde et grundlag, hvor den lineære operators matrix ville have en diagonal form. Et sådant grundlag findes.
Lad os få et lineært rum R n og en lineær operator A, der virker i det; i dette tilfælde tager operator A R n ind i sig selv, det vil sige A:R n → R n .

Definition. En ikke-nul vektor kaldes en egenvektor for operatoren A, hvis operatoren A oversættes til en kollineær vektor, dvs. Tallet λ kaldes egenværdien eller egenværdien af ​​operatoren A, svarende til egenvektoren.
Lad os bemærke nogle egenskaber ved egenværdier og egenvektorer.
1. Enhver lineær kombination af egenvektorer operator A svarende til den samme egenværdi λ er en egenvektor med samme egenværdi.
2. Egenvektorer operator A med parvis forskellige egenværdier λ 1 , λ 2 , …, λ m er lineært uafhængige.
3. Hvis egenværdierne λ 1 =λ 2 = λ m = λ, så svarer egenværdien λ til ikke mere end m lineært uafhængige egenvektorer.

Så hvis der er n lineært uafhængige egenvektorer , svarende til forskellige egenværdier λ 1, λ 2, ..., λ n, så er de lineært uafhængige, derfor kan de tages som grundlag for rummet R n. Lad os finde formen af ​​matrixen for den lineære operator A på basis af dens egenvektorer, for hvilke vi vil handle med operatoren A på basisvektorerne: Derefter .
Således har matrixen af ​​den lineære operator A på grundlag af dens egenvektorer en diagonal form, og egenværdierne for operatoren A er langs diagonalen.
Er der et andet grundlag, hvor matricen har en diagonal form? Svaret på dette spørgsmål er givet af følgende sætning.

Sætning. Matrixen for en lineær operator A i basis (i = 1..n) har en diagonal form, hvis og kun hvis alle vektorerne i basis er egenvektorer af operatoren A.

Regel for at finde egenværdier og egenvektorer

Lad en vektor være givet , hvor x 1, x 2, …, x n er vektorens koordinater i forhold til basis og er egenvektoren for den lineære operator A svarende til egenværdien λ, dvs. Denne relation kan skrives ind matrixform

. (*)


Ligning (*) kan betragtes som en ligning til at finde , og det vil sige, at vi er interesserede i ikke-trivielle løsninger, da egenvektoren ikke kan være nul. Det er kendt, at ikke-trivielle løsninger af et homogent system lineære ligninger eksisterer, hvis og kun hvis det(A - λE) = 0. For at λ skal være en egenværdi af operatoren A er det således nødvendigt og tilstrækkeligt, at det(A - λE) = 0.
Hvis ligning (*) er skrevet i detaljer i koordinatform, får vi et system af lineære homogene ligninger:

(1)
Hvor - lineær operatormatrix.

System (1) har en løsning, der ikke er nul, hvis dens determinant D lig med nul


Vi modtog en ligning for at finde egenværdier.
Denne ligning kaldes den karakteristiske ligning, og dens venstre side kaldes det karakteristiske polynomium af matricen (operator) A. Hvis det karakteristiske polynomium ikke har nogen reelle rødder, så har matricen A ingen egenvektorer og kan ikke reduceres til diagonal form.
Lad λ 1, λ 2, …, λ n være de reelle rødder til den karakteristiske ligning, og blandt dem kan der være multipla. Ved at erstatte disse værdier igen med system (1), finder vi egenvektorerne.

Eksempel 12. Den lineære operator A virker i R 3 efter loven, hvor x 1, x 2, .., x n er koordinaterne til vektoren i basis , , . Find egenværdierne og egenvektorerne for denne operator.
Løsning. Vi bygger matrixen for denne operatør:
.
Vi opretter et system til bestemmelse af koordinaterne for egenvektorer:

Vi sammensætter en karakteristisk ligning og løser den:

.
λ 1,2 = -1, λ 3 = 3.
Ved at indsætte λ = -1 i systemet har vi:
eller
Fordi , så er der to afhængige variable og en fri variabel.
Lad x 1 være en fri ukendt, så Vi løser dette system på enhver måde og finder fælles beslutning af dette system: Det grundlæggende system af løsninger består af én løsning, da n - r = 3 - 2 = 1.
Sættet af egenvektorer svarende til egenværdien λ = -1 har formen: , hvor x 1 er et hvilket som helst andet tal end nul. Lad os vælge en vektor fra dette sæt, for eksempel ved at sætte x 1 = 1: .
På samme måde finder vi egenvektoren svarende til egenværdien λ = 3: .
I rummet R 3 består basis af tre lineært uafhængige vektorer, men vi modtog kun to lineært uafhængige egenvektorer, hvorfra grundlaget i R 3 ikke kan sammensættes. Derfor kan vi ikke reducere matrixen A af en lineær operator til diagonal form.

Eksempel 13. Givet en matrix .
1. Bevis at vektoren er en egenvektor af matrix A. Find egenværdien svarende til denne egenvektor.
2. Find et grundlag, hvor matrix A har en diagonal form.
Løsning.
1. Hvis , så er en egenvektor

.
Vektor (1, 8, -1) er en egenvektor. Egenværdi λ = -1.
Matrixen har en diagonal form i en basis bestående af egenvektorer. En af dem er berømt. Lad os finde resten.
Vi leder efter egenvektorer fra systemet:

Karakteristisk ligning: ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ2 - 1) = 0
λ1 = -3, λ2 = 1, λ3 = -1.
Lad os finde egenvektoren svarende til egenværdien λ = -3:

Rangeringen af ​​matrixen for dette system er to og lig med antallet af ukendte, så dette system har kun en nulløsning x 1 = x 3 = 0. x 2 her kan være alt andet end nul, for eksempel x 2 = 1. Vektoren (0 ,1,0) er således en egenvektor svarende til λ = -3. Lad os tjekke:
.
Hvis λ = 1, får vi systemet
Rangen af ​​matrixen er to. Vi krydser den sidste ligning over.
Lad x 3 være en gratis ukendt. Derefter x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
Hvis vi antager x 3 = 1, har vi (-3,-9,1) - en egenvektor svarende til egenværdien λ = 1. Tjek:

.
Da egenværdierne er reelle og distinkte, er vektorerne, der svarer til dem, lineært uafhængige, så de kan tages som basis i R 3 . Således i grundlaget , , matrix A har formen:
.
Ikke hver matrix af en lineær operator A:R n → R n kan reduceres til diagonal form, da der for nogle lineære operatorer kan være mindre end n lineære uafhængige egenvektorer. Men hvis matricen er symmetrisk, svarer roden af ​​den karakteristiske ligning af multiplicitet m til nøjagtigt m lineært uafhængige vektorer.

Definition. En symmetrisk matrix er en kvadratisk matrix, hvor de elementer, der er symmetriske om hoveddiagonalen, er lige store, det vil sige, hvor .
Noter. 1. Alle egenværdier af en symmetrisk matrix er reelle.
2. Egenvektorerne af en symmetrisk matrix svarende til parvis forskellige egenværdier er ortogonale.
Som en af ​​de mange anvendelser af det undersøgte apparat betragter vi problemet med at bestemme typen af ​​en andenordenskurve.

Med matrix A, hvis der er et tal l, således at AX = lX.

I dette tilfælde kaldes tallet l egenværdi operator (matrix A) svarende til vektor X.

Med andre ord er en egenvektor en vektor, der under påvirkning af en lineær operator transformerer til en kollineær vektor, dvs. bare gange med et eller andet tal. I modsætning hertil er ukorrekte vektorer mere komplekse at transformere.

Lad os nedskrive definitionen af ​​en egenvektor i form af et ligningssystem:

Lad os flytte alle termerne til venstre side:

Sidstnævnte system kan skrives i matrixform som følger:

(A - lE)X = O

Det resulterende system har altid en nulløsning X = O. Sådanne systemer, hvor alle frie led er lig med nul, kaldes homogen. Hvis matrixen af ​​et sådant system er firkantet, og dets determinant ikke er lig med nul, vil vi ved hjælp af Cramers formler altid få en unik løsning - nul. Det kan bevises, at et system har ikke-nul løsninger, hvis og kun hvis determinanten af ​​denne matrix er lig med nul, dvs.

|A - lE| = = 0

Denne ligning med ukendt l kaldes karakteristisk ligning (karakteristisk polynomium) matrix A (lineær operator).

Det kan bevises, at det karakteristiske polynomium for en lineær operator ikke afhænger af valget af grundlag.

Lad os for eksempel finde egenværdierne og egenvektorerne for den lineære operator defineret af matrixen A = .

For at gøre dette, lad os oprette en karakteristisk ligning |A - lE| = = (1 - 1) 2 - 36 = 1 - 2l + 12 - 36 = 12 - 21 - 35 = 0; D = 4 + 140 = 144; egenværdier l 1 = (2 - 12)/2 = -5; l 2 = (2 + 12)/2 = 7.

For at finde egenvektorer løser vi to ligningssystemer

(A + 5E)X = O

(A - 7E)X = O

For den første af dem tager den udvidede matrix formen

,

hvorfra x 2 = c, x 1 + (2/3) c = 0; x 1 = -(2/3)s, dvs. X (1) = (-(2/3)s; s).

For den anden af ​​dem tager den udvidede matrix formen

,

hvorfra x2 = c1, xl - (2/3)c1 = 0; x 1 = (2/3)s 1, dvs. X (2) = ((2/3)s 1; s 1).

Egenvektorerne for denne lineære operator er således alle vektorer af formen (-(2/3)с; с) med egenværdi (-5) og alle vektorer af formen ((2/3)с 1 ; с 1) med egenværdi 7 .

Det kan bevises, at matrixen for operatoren A i grundlaget bestående af dens egenvektorer er diagonal og har formen:

,

hvor l i er egenværdierne af denne matrix.

Det omvendte er også sandt: hvis matrix A i en eller anden basis er diagonal, så vil alle vektorer af denne basis være egenvektorer af denne matrix.

Det kan også bevises, at hvis en lineær operator har n parvis distinkte egenværdier, så er de tilsvarende egenvektorer lineært uafhængige, og matrixen af ​​denne operator i den tilsvarende basis har en diagonal form.


Lad os illustrere dette med det foregående eksempel. Lad os tage vilkårlige ikke-nul værdier c og c 1, men sådan at vektorerne X (1) og X (2) er lineært uafhængige, dvs. ville danne grundlag. Lad f.eks. c = c 1 = 3, så X (1) = (-2; 3), X (2) = (2; 3).

Lad os verificere den lineære uafhængighed af disse vektorer:

12 ≠ 0. I dette nye grundlag vil matrix A have formen A * = .

For at bekræfte dette, lad os bruge formlen A * = C -1 AC. Lad os først finde C -1.

C-1 = ;

Kvadratiske former

Kvadratisk form f(x 1, x 2, x n) af n variable kaldes en sum, hvis led er enten kvadratet af en af ​​variablerne eller produktet af to forskellige variable taget med en bestemt koefficient: f(x 1 , x 2, x n) = (a ij = en ji).

Matrixen A, der er sammensat af disse koefficienter, kaldes matrix kvadratisk form. Det er det altid symmetrisk matrix (dvs. en matrix symmetrisk om hoveddiagonalen, a ij = a ji).

I matrixnotation er den kvadratiske form f(X) = X T AX, hvor

Ja

Lad os for eksempel skrive den kvadratiske form på matrixform.

For at gøre dette finder vi en matrix af kvadratisk form. Dens diagonale elementer er lig med koefficienterne for de kvadratiske variable, og de resterende elementer er lig med halvdelene af de tilsvarende koefficienter i den kvadratiske form. Derfor

Lad matrixkolonnen af ​​variable X opnås ved en ikke-degenereret lineær transformation af matrixkolonnen Y, dvs. X = CY, hvor C er en ikke-singular matrix af n. orden. Så den andengradsform f(X) = X T AX = (CY) T A(CY) = (Y T C T)A(CY) = Y T (C T AC)Y.

Således, med en ikke-degenereret lineær transformation C, antager matrixen af ​​kvadratisk form formen: A * = C T AC.

Lad os for eksempel finde den kvadratiske form f(y 1, y 2), opnået fra den kvadratiske form f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 ved lineær transformation.

Den kvadratiske form kaldes kanonisk(Det har kanonisk opfattelse), hvis alle dens koefficienter a ij = 0 for i ≠ j, dvs.
f(x 1, x 2, x n) = a 11 x 1 2 + a 22 x 2 2 + a nn x n 2 =.

Dens matrix er diagonal.

Sætning(bevis ikke givet her). Enhver andengradsform kan reduceres til kanonisk form ved hjælp af en ikke-degenereret lineær transformation.

Lad os for eksempel reducere den kvadratiske form til kanonisk form
f(x 1, x 2, x 3) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 - x 2 x 3.

For at gøre dette skal du først vælge et komplet kvadrat med variablen x 1:

f(x 1, x 2, x 3) = 2(x 1 2 + 2x 1 x 2 + x 2 2) - 2x 2 2 - 3x 2 2 - x 2 x 3 = 2(x 1 + x 2) 2 - 5x 2 2 - x 2 x 3.

Nu vælger vi et komplet kvadrat med variablen x 2:

f(x 1, x 2, x 3) = 2(x 1 + x 2) 2 - 5(x 2 2 + 2* x 2 *(1/10)x 3 + (1/100)x 3 2) + (5/100)x 3 2 =
= 2(x 1 + x 2) 2 - 5(x 2 - (1/10) x 3) 2 + (1/20) x 3 2.

Så bringer den ikke-degenererede lineære transformation y 1 = x 1 + x 2, y 2 = x 2 + (1/10)x 3 og y 3 = x 3 denne kvadratiske form til den kanoniske form f(y 1, y 2 , y 3) = 2y 1 2 - 5y 2 2 + (1/20) y 3 2 .

Bemærk, at den kanoniske form af en andengradsform bestemmes tvetydigt (den samme andengradsform kan reduceres til den kanoniske form forskellige veje). Dog modtagne forskellige veje kanoniske former har en række generelle egenskaber. Især afhænger antallet af led med positive (negative) koefficienter af en kvadratisk form ikke af metoden til at reducere formen til denne form (for eksempel vil der i det betragtede eksempel altid være to negative og en positiv koefficient). Denne egenskab kaldes inertiloven for kvadratiske former.

Lad os bekræfte dette ved at bringe den samme kvadratiske form til kanonisk form på en anden måde. Lad os starte transformationen med variablen x 2:

f(x 1, x 2, x 3) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 - x 2 x 3 = -3x 2 2 - x 2 x 3 + 4x 1 x 2 + 2x 1 2 = - 3(x 2 2+
+ 2* x 2 ((1/6) x 3 - (2/3)x 1) + ((1/6) x 3 - (2/3)x 1) 2) + 3((1/6) x 3 - (2/3) x 1) 2 + 2x 1 2 =
= -3(x 2 + (1/6) x 3 - (2/3)x 1) 2 + 3((1/6) x 3 + (2/3)x 1) 2 + 2x 1 2 = f (y 1 , y 2 , y 3) = -3y 1 2 -
+3y 2 2 + 2y 3 2, hvor y 1 = - (2/3)x 1 + x 2 + (1/6) x 3, y 2 = (2/3)x 1 + (1/6) x 3 og y3 = x1. Her er der en negativ koefficient -3 ved y 1 og to positive koefficienter 3 og 2 ved y 2 og y 3 (og ved hjælp af en anden metode fik vi en negativ koefficient (-5) ved y 2 og to positive: 2 ved y 1 og 1/20 ved y 3).

Det skal også bemærkes, at rangen af ​​en matrix af kvadratisk form, kaldet rang af andengradsform, er lig med antallet af koefficienter, der ikke er nul kanonisk form og ændres ikke under lineære transformationer.

Den kvadratiske form f(X) kaldes positivt (negativ) bestemte, hvis for alle værdier af variablerne, der ikke samtidigt er lig med nul, er den positiv, dvs. f(X) > 0 (negativ, dvs.
f(X)< 0).

F.eks. er andengradsformen f 1 (X) = x 1 2 + x 2 2 positiv bestemt, fordi er en sum af kvadrater, og andengradsformen f 2 (X) = -x 1 2 + 2x 1 x 2 - x 2 2 er negativ bestemt, fordi repræsenterer det kan repræsenteres som f 2 (X) = -(x 1 - x 2) 2.

I de fleste praktiske situationer er det noget sværere at fastslå det bestemte tegn på en kvadratisk form, så til dette bruger vi en af ​​følgende sætninger (vi vil formulere dem uden bevis).

Sætning. En kvadratisk form er positiv (negativ) bestemt, hvis og kun hvis alle egenværdier af dens matrix er positive (negative).

Sætning(Sylvester-kriteriet). En andengradsform er positiv bestemt, hvis og kun hvis alle de førende mol i denne forms matrix er positive.

Hoved (hjørne) mol K. ordens matrix A af n. orden kaldes matricens determinant, sammensat af de første k rækker og kolonner i matrixen A ().

Bemærk, at for negative definitive kvadratiske former veksler fortegnene for de primære mindreårige, og den første ordens mol skal være negativ.

Lad os for eksempel undersøge den kvadratiske form f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 + 3x 2 2 for tegnbestemthed.

= (2 - l)*
*(3 - 1) - 4 = (6 - 2 1 - 3 1 + 1 2) - 4 = 1 2 - 5 1 + 2 = 0; D = 25-8 = 17;
. Derfor er den kvadratiske form positiv bestemt.

Metode 2. Principal mol af første orden af ​​matrix A D 1 = a 11 = 2 > 0. Principal mol af anden orden D 2 = = 6 - 4 = 2 > 0. Derfor er den kvadratiske form ifølge Sylvesters kriterium positiv bestemt.

Vi undersøger en anden kvadratisk form for tegnbestemthed, f(x 1, x 2) = -2x 1 2 + 4x 1 x 2 - 3x 2 2.

Metode 1. Lad os konstruere en matrix med kvadratisk form A = . Den karakteristiske ligning vil have formen = (-2 - l)*
*(-3 - 1) - 4 = (6 + 2 1 + 3 1 + 1 2) - 4 = 1 2 + 5 1 + 2 = 0; D = 25-8 = 17;
. Derfor er den kvadratiske form negativ bestemt.

Metode 2. Principal minor af første orden af ​​matrix A D 1 = a 11 =
= -2 < 0. Главный минор второго порядка D 2 = = 6 - 4 = 2 >0. I henhold til Sylvesters kriterium er den kvadratiske form følgelig negativ bestemt (fortegnene for de vigtigste biord veksler, begyndende med minus).

Og som et andet eksempel undersøger vi den fortegnsbestemte kvadratiske form f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 - 3x 2 2.

Metode 1. Lad os konstruere en matrix med kvadratisk form A = . Den karakteristiske ligning vil have formen = (2 - l)*
*(-3 - 1) - 4 = (-6 - 2 1 + 3 1 + 1 2) - 4 = 12 + 1 - 10 = 0; D = 1 + 40 = 41;
.

Et af disse tal er negativt, og det andet er positivt. Tegnene for egenværdierne er forskellige. Følgelig kan den kvadratiske form hverken være negativt eller positivt bestemt, dvs. denne kvadratiske form er ikke tegnbestemt (den kan tage værdier af ethvert tegn).

Metode 2. Principal mol af første orden af ​​matrix A D 1 = a 11 = 2 > 0. Principal mol af anden orden D 2 = = -6 - 4 = -10< 0. Следовательно, по критерию Сильвестра квадратичная форма не является знакоопределенной (знаки главных миноров разные, при этом первый из них - положителен).

Den enkleste lineære operator er multiplikation af en vektor med et tal \(\lambda\). Denne operator strækker simpelthen alle vektorer med \(\lambda \) gange. Dens matrixform på enhver basis er \(diag(\lambda ,\lambda ,...,\lambda)\). For nøjagtighedens skyld fikserer vi grundlaget \(\(e\)\) i vektorrummet \(\mathit(L)\) og betragter en lineær operator med en diagonal matrixform i denne basis, \(\alpha = diag( \lambda _1,\lambda _2,...,\lambda _n)\). Denne operator strækker ifølge definitionen af ​​matrixformen \(e_k\) \(\lambda _k\) gange, dvs. \(Ae_k=\lambda _ke_k\) for alle \(k=1,2,...,n\). Det er praktisk at arbejde med diagonale matricer; funktionel regning er nem at konstruere for dem: for enhver funktion \(f(x)\) kan vi sætte \(f(diag(\lambda _1,\lambda _2,..., \lambda _n))= diag(f(\lambda _1),f(\lambda _2),...,f(\lambda _n))\). Der opstår således et naturligt spørgsmål: lad der være en lineær operator \(A\), er det muligt at vælge et sådant grundlag i vektorrummet, således at matrixformen for operatoren \(A\) er diagonal på dette grundlag? Dette spørgsmål fører til definitionen af ​​egenværdier og egenvektorer.

Definition. Lad for den lineære operator \(A\) eksistere en ikke-nul vektor \(u\) og et tal \(\lambda \) sådan at \[ Au=\lambda \cdot u. \quad \quad(59) \] Så kaldes vektoren \(u\). egenvektor operator \(A\), og tallet \(\lambda \) - det tilsvarende egenværdi operator \(A\). Mættet af alle egenværdier kaldes spektrum af den lineære operator \(EN\).

Et naturligt problem opstår: find for en given lineær operator dens egenværdier og de tilsvarende egenvektorer. Dette problem kaldes spektrumproblemet for en lineær operator.

Egenværdiligning

For bestemthedens skyld fikserer vi grundlaget i vektorrum, dvs. Vi vil antage, at det er givet én gang for alle. Så, som diskuteret ovenfor, kan hensynet til lineære operatorer reduceres til hensynet til matricer - matrixformer for lineære operatorer. Vi omskriver ligning (59) i formen \[ (\alpha -\lambda E)u=0. \] Her er \(E\) identitetsmatrixen, og \(\alpha\) er matrixformen af ​​vores lineære operator \(A\). Dette forhold kan tolkes som et system af \(n\) lineære ligninger for \(n\) ukendte - koordinaterne for vektoren \(u\). Desuden er dette et homogent ligningssystem, og vi bør finde det ikke-triviel løsning. Tidligere blev der givet en betingelse for eksistensen af ​​en sådan løsning - for dette er det nødvendigt og tilstrækkeligt, at systemets rang er mindre end antallet af ukendte. Dette indebærer ligningen for egenværdierne: \[ det(\alpha -\lambda E)=0. \quad \quad(60) \]

Definition. Ligning (60) kaldes karakteristisk ligning for den lineære operator \(A\).

Lad os beskrive egenskaberne for denne ligning og dens løsninger. Hvis vi skriver det eksplicit ud, får vi en ligning med formen \[ (-1)^n\lambda ^n+...+det(A)=0. \quad \quad(61) \] På venstre side er der et polynomium i variablen \(\lambda \). Sådanne ligninger kaldes algebraiske af graden \(n\). Lad os give nødvendige oplysninger om disse ligninger.

Hjælp til algebraiske ligninger.

Sætning. Lad alle egenværdier af den lineære operator \(A\) være primtal. Derefter danner det sæt af egenvektorer, der svarer til disse egenværdier, grundlaget for vektorrummet.

Af betingelserne for sætningen følger det, at alle egenværdier for operatoren \(A\) er forskellige. Antag, at mængden af ​​egenvektorer er lineært afhængig, så der er konstanter \(c_1,c_2,...,c_n\), som ikke alle er nul, og som opfylder betingelsen: \[ \sum_(k=1)^ nc_ku_k=0. \quad \quad(62) \]

Blandt sådanne formler, lad os overveje en, der inkluderer det mindste antal udtryk, og handle på den med operatoren \(A\). På grund af dens linearitet får vi: \[ A\venstre (\sum_(k=1)^nc_ku_k \right)=\sum_(k=1)^nc_kAu_k=\sum_(k=1)^nc_k\lambda _ku_k= 0. \quad \quad(63) \]

Lad for bestemthed \(c_1 \neq 0\). Hvis vi multiplicerer (62) med \(\lambda _1\) og trækker fra (63), får vi en relation på formen (62), men med et led mindre. Modsigelsen beviser teoremet.

Så under sætningens betingelser vises en basis forbundet med en given lineær operator - grundlaget for dens egenvektorer. Lad os overveje operatørens matrixform på et sådant grundlag. Som nævnt ovenfor er \(k\)'te kolonne i denne matrix dekomponeringen af ​​vektoren \(Au_k\) i forhold til basis. Men per definition, \(Au_k=\lambda _ku_k\), så denne udvidelse (det der er skrevet på højre side) indeholder kun et led, og den konstruerede matrix viser sig at være diagonal. Som et resultat finder vi, at under sætningens betingelser er matrixformen for operatoren i basis af dens egenvektorer lig med \(diag(\lambda _1,\lambda _2,...,\lambda _n)\ ). Derfor, hvis det er nødvendigt at udvikle funktionel regning for en lineær operator, er det rimeligt at arbejde på basis af dens egenvektorer.

Hvis der blandt egenværdierne af en lineær operator er multipler, bliver beskrivelsen af ​​situationen mere kompliceret og kan omfatte såkaldte Jordan-celler. Vi henviser læseren til mere avancerede tutorials til relevante situationer.

Definition 5.3. Ikke-nul vektor x i lineært rum L kaldes egenvektor for den lineære operator A: L → L, hvis forholdet Ax = λx gælder for et eller andet reelt tal A. I dette tilfælde kaldes tallet λ egenværdi (egenværdi) af den lineære operator EN.

Eksempel 5.3. Det lineære rum K n [x] af polynomier af grad ikke højere end n indeholder polynomier af grad nul, dvs. permanente funktioner. Da dc/dx = 0 = 0 c, er polynomier af grad nul p(x) = c ≠ 0 egenvektorerne for den lineære differentieringsoperator, og tallet λ = 0 er egenværdien af ​​denne operator. #

Sættet af alle egenværdier af en lineær operator kaldes spektrum af den lineære operator . Hver egenvektor er forbundet med sin egen egenværdi. Faktisk, hvis en vektor x samtidig opfylder to ligheder Ax = λx og Ax = μx, så λx = μx, hvorfra (λ - μ)x = 0. Hvis λ - μ ≠ 0, ganges ligheden med tallet (λ - μ ) -1 og som et resultat får vi at x = 0. Men dette er i modstrid med definitionen af ​​en egenvektor, da en egenvektor altid er ikke-nul.

Til hver egenværdi deres egne vektorer svarer, og dem er der uendeligt mange af. Faktisk, hvis x er en egenvektor for en lineær operator A med en egenværdi λ, dvs. Ах = λx, så har vi for ethvert reelt tal α, der ikke er nul, αx ≠ 0 og А(αх) = α(Ах) = αλx = λ(αx). Det betyder, at vektoren αx også er en egenvektor for den lineære operator.

Bemærkning 5.1. De taler ofte om egenværdier (tal), spektrum og egenvektorer kvadratisk matrix . Det betyder følgende. Matrix A af orden n er matrix nogle lineær operator i en fast basis, der opererer i n-dimensionelt lineært rum. For eksempel hvis vi stopper kl standardbasis i lineært aritmetisk rum Rn, så definerer matricen A en lineær operator A, der afbilder en vektor x ∈ Rn med en koordinatsøjle x til en vektor med en koordinatsøjle Ax. Matrix A er netop matrix A. Det er naturligt at identificere en operator med dens matrix på samme måde som en aritmetisk vektor identificeres med en søjle af dens koordinater. Denne identifikation, som ofte bruges og ikke altid er specificeret, gør det muligt at overføre "operatør"-termer til matricer.

Spektret af en lineær operator er tæt forbundet med dens karakteristisk ligning.

Sætning 5.3. For at et reelt tal λ skal være en egenværdi for en lineær operator, er det nødvendigt og tilstrækkeligt, at det er roden til denne operators karakteristiske ligning.

◄ Nødvendighed. Lad tallet λ være en egenværdi af den lineære operator A: L → L. Det betyder, at der er en vektor x ≠ 0, for hvilken

Ax = λx. (5.2)

Bemærk, at der i L er identitetsoperatør I: Ix = x for enhver vektor x. Ved at bruge denne operator transformerer vi lighed (5.2): Ах = λIx, eller

(A - λI)x = 0. (5,3)

Lad os skrive vektorligheden (5.3) i en eller anden basis b. Matricen for den lineære operator A - λI vil være matrixen A - λE, hvor A er matrixen for den lineære operator A i basis b, og E er identitetsmatrixen, og lad x være kolonnen af ​​koordinater for egenvektoren x . Så er x ≠ 0, og vektorligheden (5.3) er ækvivalent med matrixen

(A - λE)x = 0, (5,4)

som er en matrixform for registrering af et homogent system af lineær algebraiske ligninger(SLAE) med en kvadratisk matrix A - λE af orden n. Dette system har en ikke-nul-løsning, som er x-koordinatsøjlen for egenvektoren x. Derfor har matrixen A - λE af system (5.4) en nuldeterminant, dvs. det(A - λE) = 0. Det betyder, at λ er roden til den karakteristiske ligning for den lineære operator A.

Tilstrækkelighed. Det er let at verificere, at ovenstående ræsonnement kan udføres i omvendt rækkefølge. Hvis λ er roden til den karakteristiske ligning, så gælder i et givet grundlag b ligheden det (A - λE) = 0. Følgelig er matrixen af ​​den homogene SLAE (5.4), skrevet på matrixform, degenereret, og systemet har en ikke-nul løsning x. Denne ikke-nul-løsning er et sæt koordinater i basis b af en eller anden ikke-nul vektor x, for hvilken vektorligheden (5.3) eller dens ækvivalente lighed (5.2) gælder. Vi kommer til den konklusion, at tallet λ er en egenværdi af den lineære operator A.

Hver egenværdi λ af matricen (lineær operator) er forbundet med dens mangfoldighed, ved at sætte den lig med multipliciteten af ​​roden λ af den karakteristiske ligning for denne matrix (af denne lineære operator).

Mættet af alle egenvektorer svarende til en given egenværdi for en lineær operator er ikke lineært underrum, da dette sæt ikke indeholder nul vektor, hvilket per definition ikke kan være ordentligt. Men denne formelle og let aftagelige hindring er den eneste. Lad os med £(A, λ) betegne mængden af ​​alle egenvektorer for den lineære operator A i det lineære rum L svarende til egenværdien λ, med nulvektoren tilføjet til denne mængde.

Sætning 5.4. Mængden £(A,λ) er et lineært underrum i L.

◄ Lad os vælge vilkårlige to vektor x,y∈ £(A, λ) og bevis, at for enhver reel α og β hører vektoren αx + βу også til £(A, λ). For at gøre dette beregner vi billedet af denne vektor under påvirkning af den lineære operator A:

А(αх + βу) = А((αx) + А(βу) = αАх + βАу = α(λх) + β(λу) = λ(αx) + λ(βу) = λ(αx + βу).

For vektoren z = αх + βу gælder således forholdet Az = λz. Hvis z er en nulvektor, så hører den til £(A,λ). Hvis den ikke er nul, så er den ifølge den beviste sammenhæng en egenværdi med en egenværdi λ og hører igen til mængden £(A, λ).

Det lineære underrum £(A,λ) kaldes nogle gange egenunderrum af den lineære operator *. Det er et særligt tilfælde invariant underrum lineær operator A - et lineært underrum, således at for enhver vektor x ∈ H hører vektoren Ax også til H.

Et invariant underrum af en lineær operator er også det lineære spænd for ethvert system af dets egenvektorer. Et invariant underrum af en lineær operator, der ikke er relateret til dens egenvektorer, er operatørbillede.

Lad være en lineær transformation af et n-dimensionelt lineært rum V. Ikke-nul vektor \boldsymbol(er) af lineært rum V, der opfylder betingelsen

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s),

hedder egenvektor for lineær transformation\mathcal(A) . Tallet \lambda i lighed (9,5) kaldes transformations egenværdi\mathcal(A) . Egenvektoren siges at svare til (tilhøre) egenværdien \lambda . Hvis rummet V er reelt (komplekst), så er egenværdien \lambda et reelt (komplekst) tal.

Sættet af alle egenværdier af en lineær transformation kaldes dens spektrum.

Lad os forklare geometrisk betydning egenvektorer. En ikke-nul vektor s er en egenvektor af transformationen \mathcal(A) hvis dens billede \mathcal(A) (\fedsymbol(er)) er kollineær til det omvendte billede af \boldsymbol(s) . Med andre ord, hvis \boldsymbol(s) er en egenvektor, så har transformationen \mathcal(A) et endimensionelt invariant underrum. Det modsatte udsagn er også sandt.

Faktisk, lad egenvektoren \boldsymbol(er) svare til en eller anden egenværdi \lambda . Enhver vektor \boldsymbol(v) fra \operatørnavn(Lin)(\fedsymbol(er)) ligner \boldsymbol(v)=\alpha \fedsymbol(er), hvor \alpha er et hvilket som helst tal fra det givne felt. Lad os finde billedet af denne vektor

\mathcal(A)(\boldsymbol(v))= \mathcal(A)(\alpha \boldsymbol(s))= \alpha\cdot \mathcal(A)(\boldsymbol(s))= \alpha\cdot \ lambda\cdot \boldsymbol(er)\i \operatørnavn(Lin) (\boldsymbol(er)).

Derfor, \mathcal(A)(\boldsymbol(v))\i \operatørnavn(Lin)(\boldsymbol(er)) for enhver vektor \fedsymbol(v)\i \operatørnavn(Lin)(\fedsymbol(er)), dvs. underrum \operatørnavn(Lin)(\fedsymbol(er)) invariant under transformationen \mathcal(A) . Subspace dimension \operatørnavn(Lin) (\fedsymbol(er)) er lig med en, da \boldsymbol(er)\ne \boldsymbol(o) a-priory.

Det omvendte udsagn kan bevises ved at ræsonnere i omvendt rækkefølge.

Forholdet mellem egenvektorer af en lineær transformation (operator) og dens matrix

Tidligere blev egenvektorer og egenværdier af en matrix overvejet. Husk, at en egenvektor af en kvadratisk matrix A af n. orden er en numerisk søjle, der ikke er nul s=\begin(pmatrix)s_1&\cdots&s_(n)\end(pmatrix)^T, tilfredsstillende betingelse (7.13):

A\cdot s=\lambda\cdot s.

Tallet \lambda i (9.6) kaldes egenværdien af ​​matricen A. Man mente, at egenværdien \lambda og tallene s_i~(i=1,\ldots,n) hører til området komplekse tal.

Disse begreber er relateret til egenvektorer og egenværdier af en lineær transformation.

Sætning 9.3 om egenvektorerne for en lineær transformation og dens matrix. Lade \mathcal(A)\kolon V\til V er en lineær transformation af et n-dimensionelt lineært rum V med basis. Så er egenværdien \lambda og koordinatsøjlen(e) af egenvektoren \boldsymbol(s) for transformationen \mathcal(A) egenværdien og egenvektoren for matricen A for denne transformation defineret med hensyn til basis \boldsymbol(e)_1,\ldots, \boldsymbol(e)_n, dvs.

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s)\quad \Rightarrow\quad A\cdot s=\lambda\cdot s, Hvor \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n,~ s=\begin(pmatrix)s_1&\cdots& s_n\end(pmatrix)^T.

Det omvendte udsagn er sandt for yderligere betingelser: hvis kolonne s=\begin(pmatrix) s_1&\cdots&s_n\end(pmatrix)^T og tallet \lambda er egenvektoren og egenværdien af ​​matricen A, og tallene s_1,\ldots,s_n,\lambda hører til samme nummerfelt, over hvilket det lineære rum V er defineret, derefter vektoren \boldsymbol(s)=s_1 \boldsymbol(e)_1+ \ldots+s_n \boldsymbol(e)_n og tal \lambda er egenvektoren og egenværdien af ​​den lineære transformation \mathcal(A)\kolon V\til V med matrix A i basis \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n.

Faktisk har betingelse (9.5) i koordinatform formen (9.6), som falder sammen med definitionen (7.13) af matrix-egenvektoren. Tværtimod indebærer lighed (9.6) lighed (9.5), forudsat at vektorerne og \lambda\cdot \boldsymbol(er) defineret, dvs. tal s_1,\ldots,s_n,\lambda tilhører det samme talfelt, som det lineære rum er defineret over.

Husk at finde egenværdierne af en matrix reducerer til at løse dens karakteristiske ligning \Delta_A(\lambda)=0, Hvor \Delta_A(\lambda)=\det(A-\lambda E) er det karakteristiske polynomium i matrix A. Til lineær transformation introducerer vi lignende begreber.

Karakteristisk polynomium af lineær transformation \mathcal(A)\kolon V\til V n-dimensionelt lineært rum er det karakteristiske polynomium af matrix A af denne transformation, fundet med hensyn til enhver basis af rummet V.

Ligningen kaldes karakteristisk ligning for lineær transformation.

Konvertering \mathcal(A)-\lambda\mathcal(E) kaldes karakteristisk for en lineær transformation \mathcal(A)\kolon V\til V.

Bemærkninger 9.4

1. Det karakteristiske polynomium for en lineær transformation afhænger ikke af det grundlag, som transformationsmatrixen findes i.

Faktisk matricerne \mathop(A)\limits_((\boldsymbol(e))) Og \mathop(A)\limits_((\boldsymbol(f))) lineær transformation \mathcal(A) i baser (\boldsymbol(e))= (\boldsymbol(e)_1,\ldots, \boldsymbol(e)_n) Og (\boldsymbol(f))=(\boldsymbol(f)_1,\ldots,\boldsymbol(f)_n) er ifølge (9.4) ens: \nathop(A)\limits_((\boldsymbol(f)))=S^(-1)\mathop(A)\limits_((\boldsymbol(e)))S, hvor S er overgangsmatrixen fra basis (\boldsymbol(e)) til basis (\boldsymbol(f)). Som vist tidligere falder de karakteristiske polynomier af sådanne matricer sammen (se egenskab 3). Derfor kan vi bruge notationen til det karakteristiske polynomium for transformationen \mathcal(A). \Delta_(\mathcal(A))(\lambda) uden at specificere matrixen for denne transformation.

2. Af sætning 9.3 følger det, at enhver kompleks (real, rationel) rod af den karakteristiske ligning er en egenværdi af den lineære transformation \mathcal(A)\kolon V\til V lineært rum V defineret over feltet af komplekse (reelle, rationelle) tal.

3. Af sætning 9.3 følger det, at enhver lineær transformation af et komplekst lineært rum har et endimensionelt invariant underrum, da denne transformation har en egenværdi (se punkt 2), og derfor egenvektorer. Et sådant underrum er for eksempel det lineære spænd for enhver egenvektor. En transformation af et reelt lineært rum har muligvis ikke endimensionelle invariante underrum, hvis alle rødderne af den karakteristiske ligning er komplekse (men ikke reelle).

Sætning 9.4 om invariante underrum af en lineær operator i et reelt rum. Hver lineær transformation af et reelt lineært rum har et endimensionelt eller todimensionalt invariant underrum.

Lad os faktisk sammensætte en lineær transformationsmatrix A \mathcal(A)\kolon V\til V n-dimensionelt reelt lineært rum V på en vilkårlig basis \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n. Elementerne i denne matrix er reelle tal. Derfor er det karakteristiske polynomium \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E) er et polynomium af grad n med reelle koefficienter. Ifølge følge 3 og 4 af algebras grundlæggende sætning kan et sådant polynomium have reelle rødder og par af komplekse konjugerede rødder.

Hvis \lambda=\lambda_1 er en reel rod af den karakteristiske ligning, så er den tilsvarende egenvektor s=\begin(pmatrix)s_1&\cdots&s_n\end(pmatrix)^T matrix A er også reel. Derfor definerer den en egenvektor \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n lineær transformation (se sætning 9.3). I dette tilfælde er der et endimensionelt underrum invariant under \mathcal(A) \operatørnavn(Lin)(\fedsymbol(er))(se den geometriske betydning af egenvektorer).

Hvis \lambda=\alpha\pm\beta i er et par komplekse konjugerede rødder (\beta\ne0), så har egenvektoren s\ne o af matrix A også komplekse elementer: s=\begin(pmatrix)x_1+y_1i&\cdots& x_n+y_n i \end(pmatrix)^T. Det kan repræsenteres som s=x+yi, hvor x,\,y er reelle kolonner. Ligestilling (9,6) vil så have formen

A\cdot(x+yi)= (\alpha+\beta i)\cdot(x+yi).


Ved at isolere de reelle og imaginære dele får vi systemet

\begin(cases)Ax=\alpha x-\beta y,\\ Ay=\beta x+\alpha y.\end(cases)

Lad os vise, at kolonnerne (x) og (y) er lineært uafhængige. Lad os overveje to tilfælde. Hvis x=o, så følger det af den første ligning (9.7), at y=o, da \beta\ne0. Derefter s=o, hvilket modsiger betingelsen s\ne o. Lad os antage, at x\ne o og x- og y-kolonnerne er proportionale, dvs. der er et reelt tal \gamma således, at y=\gamma x . Så får vi fra system (9.7). \begin(cases)Ax=(\alpha-\beta\gamma)x,\\ \gamma Ax=(\beta-\alpha\gamma)x. \end(cases) Tilføjer vi den første ligning ganget med (-\gamma) til den anden ligning, når vi frem til ligheden [(\beta+\alpha\gamma)-\gamma(\alpha-\beta\gamma)]x=o. Siden x\ne o , så udtrykket i firkantede parenteser er lig med nul, dvs. (\beta+\alpha\gamma)- \gamma(\alpha- \beta\gamma)= \beta(1+\gamma^2)=0. Siden \beta\ne0 , så \gamma^2=-1 . Dette kan ikke ske, da \gamma er et reelt tal. Vi har en modsigelse. Således er x- og y-kolonnerne lineært uafhængige.

Overvej underrummet hvor \boldsymbol(x)= x_1 \boldsymbol(e)_1+\ldots+x_n \boldsymbol(e)_n,~ \boldsymbol(y)= y_1 \boldsymbol(e)_1+\ldots+ y_n \boldsymbol(y)_n. Dette underrum er todimensionelt, da vektorerne \fedsymbol(x),\fedsymbol(y) er lineært uafhængige (som vist ovenfor er deres x,y-koordinatkolonner lineært uafhængige). Af (9.7) følger det \begin(cases)\mathcal(A)(\boldsymbol(x))=\alpha \boldsymbol(x)-\beta \boldsymbol(y),\\ \mathcal(A)(\boldsymbol(y))=\ beta \boldsymbol(x)+\alpha \boldsymbol(y),\end(cases) de der. billedet af enhver vektor, der hører til \operatørnavn(Lin)(\fedsymbol(x),\fedsymbol(y)), hører også til \operatørnavn(Lin)(\fedsymbol(x),\fedsymbol(y)). Derfor, \operatørnavn(Lin)(\fedsymbol(x),\fedsymbol(y)) er et todimensionelt underrum invariant under transformationen \mathcal(A) , hvilket er, hvad vi skulle bevise.

Find egenvektorer og værdier af en lineær operator (transformation)

At finde egenvektorer og egenværdier for en lineær transformation \mathcal(A)\kolon V\til V reelt lineært rum V, skal følgende trin udføres.

1. Vælg et vilkårligt grundlag \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n lineært rum V og find transformationsmatrixen A \mathcal(A) i denne basis.

2. Komponer det karakteristiske polynomium for transformationen \mathcal(A)\colon\, \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E).

3. Find alle forskellige rigtige rødder \lambda_1,\ldots,\lambda_k karakteristisk ligning \Delta_(\mathcal(A))(\lambda)=0. Komplekse (men ikke reelle) rødder af den karakteristiske ligning bør kasseres (se afsnit 2 i bemærkning 9.4).

4. Find grundsystemet for roden \lambda=\lambda_1 \varphi_1, \varphi_2,\ldots,\varphi_(n-r) løsninger til et homogent ligningssystem (A-\lambda_1E)x=o , hvor r=\operatørnavn(rg)(A-\lambda_1E). For at gøre dette kan du bruge enten en algoritme til at løse et homogent system eller en af ​​metoderne til at finde den fundamentale matrix.

5. Skriv lineært uafhængige egenvektorer af transformationen \mathcal(A) svarende til egenværdien \lambda_1:

\begin(matrix) \boldsymbol(s)_1=\varphi_(1\,1)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,1)\boldsymbol(e)_n,\\ \boldsymbol(s) _2=\varphi_(1\,2)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,2)\boldsymbol(e)_n,\\ \vdots\\ \boldsymbol(s)_(n-r)=\ varphi_(1\,n-r) \boldsymbol(e)_1+ \ldots+\varphi_(n\,n-r)\boldsymbol(e)_n. \end(matrix)

For at finde mængden af ​​alle egenvektorer svarende til egenværdien \lambda_1, danne lineære kombinationer, der ikke er nul

\boldsymbol(s)= C_1 \boldsymbol(s)_1+C_2 \boldsymbol(s)_2+\ldots+ C_(n-r)\boldsymbol(s)_(n-r),

Hvor C_1,C_2,\ldots,C_(n-r)- vilkårlige konstanter, der ikke er lig med nul på samme tid.

Gentag trin 4, 5 for de resterende egenværdier \lambda_2,\ldots,\lambda_k lineær transformation \mathcal(A) .

For at finde egenvektorerne for en lineær transformation af et komplekst lineært rum skal du i trin 3 bestemme alle rødderne af den karakteristiske ligning og, uden at kassere de komplekse rødder, udføre trin 4 og 5 for dem.

Eksempler på egenvektorer af lineære operatorer (transformationer)

1. For nulkonvertering \mathcal(O)\kolon V\til V enhver ikke-nul vektor er en egenvektor svarende til en nul egenværdi \lambda=0, da \mathcal(O)(\boldsymbol(s))=0\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

2. Til identitetstransformation \mathcal(E)\kolon V\til V enhver vektor, der ikke er nul \fedsymbol(er)\i V er den egen, der svarer til identitetens egenværdi \lambda=1 , da \mathcal(E) (\boldsymbol(s))=1\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

3. Til central symmetri \mathcal(Z)_(\boldsymbol(o))\kolon V\til V enhver vektor, der ikke er nul \fedsymbol(er)\i V \mathcal(Z)_(\boldsymbol(o)) (\boldsymbol(s))=(-1)\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

4. For homoteti \mathcal(H)_(\lambda)\kolon V\til V enhver vektor, der ikke er nul \fedsymbol(er)\i V er egenværdien, der svarer til egenværdien \lambda (homotetitetskoefficienten), eftersom \mathcal(H)_(\lambda) (\boldsymbol(\boldsymbol(s)))= \lambda\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

5. At vende \mathcal(R)_(\varphi)\colon V_2\til V_2 plan (at ) er der ingen egenvektorer, da når den roteres med en vinkel, der ikke er et multiplum af \pi, er billedet af hver ikke-nul vektor ikke-kollineært med det inverse billede. Her betragter vi rotationen af ​​det reelle plan, dvs. todimensionelt vektorrum over feltet af reelle tal.

6. For differentieringsoperatøren \mathcal(D)\colon P_n(\mathbb(R))\to P_n(\mathbb(R)) ethvert polynomium, der ikke er nul, af grad nul (ikke identisk nul) er en egenvektor svarende til nul-egenværdien \lambda=0 , da \mathcal(D)(s(x))=0\cdot s(x) \forall s(x)\equiv \text(const). Ethvert polynomium af ikke-nul grad er ikke en egenvektor, da polynomiet ikke er proportionalt med dets afledte: \mathcal(D)(s(x))=s"(x)\ne \lambda\cdot s(x), da de har forskellige grader.

7. Overvej operatøren \Pi_(L_1)\kolon V\til V projektion på underrummet L_1 parallelt med underrummet L_2. Her V=L_1\plus L_2, \Pi_(L_1)(\boldsymbol(v)_1+ \boldsymbol(v)_2)=\boldsymbol(v)_1 Til \Pi_(L_1)(\boldsymbol(v)_1)=1\cdot \boldsymbol(v)_1, og enhver ikke-nul vektor er en egenvektor svarende til egenværdien \lambda=0 , da \Pi_(L_2)(\boldsymbol(v)_2)=0\cdot \boldsymbol(v)_2 \Pi_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1= \lambda(\boldsymbol(v)_1+\boldsymbol(v)_2) det er muligt enten på eller kl.

8. Overvej operatøren \mathcal(Z)_(L_1)\kolon V\til V refleksioner på underrummet L_1 parallelt med underrummet L_2. Her V=L_1\plus L_2 \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2, Til \boldsymbol(v)=\boldsymbol(v)_1+\boldsymbol(v)_2, \boldsymbol(v)_1\i L_1,~ \boldsymbol(v)_2\i L_2. For denne operator, enhver vektor, der ikke er nul \boldsymbol(v)_1\i L_1 er egenværdien svarende til egenværdien \lambda=1 , da \mathcal(Z)_(L_1) (\boldsymbol(v)_1)= 1\cdot \boldsymbol(v)_1 og enhver vektor, der ikke er nul \boldsymbol(v)_2\i L_2 er egenværdien svarende til egenværdien \lambda=-1 siden \mathcal(Z)_(L_2) (\boldsymbol(v)_2)= (-1)\cdot \boldsymbol(v)_2. Andre vektorer er ikke egenvektorer, da ligheden \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2= \lambda(\boldsymbol()_1+ \boldsymbol(v )_2) muligt enten med \boldsymbol(v)_1=\boldsymbol(o), eller kl \boldsymbol(v)_2= \boldsymbol(o).

9. I rummet V_3 radius vektorer af rummet, plottet fra fast punkt O, overvej at dreje med en vinkel \varphi\ne\pi k,~ k\in\mathbb(Z), omkring \ell-aksen defineret af radiusvektoren \vec(\ell) . Enhver ikke-nul vektor kollineær med vektoren \vec(\ell) er en egen, der svarer til egenværdien \lambda=1 . Denne transformation har ingen andre egenvektorer.

Eksempel 9.1. Find egenværdierne og egenvektorerne for differentieringsoperatoren \mathcal(D)\kolon T_1\til T_1, transformerer rummet af trigonometriske polynomier (frekvens \omega=1):

a) med reelle koefficienter T_1=T_1(\mathbb(R))= \operatørnavn(Lin) (\sin(t),\cos(t));

b) med komplekse koefficienter T_1=T_1(\mathbb(C))= \operatørnavn(Lin) (\sin(t),\cos(t)).

Løsning. 1. Lad os vælge et standardgrundlag e_1(t)=\sin(t),~ e_2(t)=\cos(t) og på dette grundlag komponerer vi matrixen D af operatoren \mathcal(D):

D=\begin(pmatrix)0&-1\\ 1&0 \end(pmatrix)\!.

2. Lad os sammensætte det karakteristiske polynomium for transformationen \mathcal(D)\colon\, \Delta_(\mathcal(D))(\lambda)= \begin(vmatrix)-\lambda&-1\\ 1&-\lambda\end(vmatrix)= \lambda^2+ 1..

3. Den karakteristiske ligning \lambda^2+1=0 har komplekse konjugerede rødder \lambda_1=i,~ \lambda_2=-i. Der er ingen reelle rødder, derfor har transformationen \mathcal(D) af det reelle rum T_1(\mathbb(R)) (tilfælde (a)) ingen egenværdier og derfor ingen egenvektorer. Transformationen \mathcal(D) af det komplekse rum T_1(\mathbb(C)) (tilfælde (b)) har komplekse egenværdier \lambda_1,\,\lambda_2.

4(1). For roden \lambda_1=i finder vi grundsystemet \varphi_1 af løsninger til det homogene ligningssystem (D-\lambda_1 E)x=o:

\begin(pmatrix)-i&-1\\ 1&-i\end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

Lad os reducere systemmatricen til trinvis form ved at gange den første ligning med (i) og trække den fra den anden ligning:

\begin(pmatrix)-i&-1\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\ \0&0\end(pmatrix)\!.

Vi udtrykker grundvariablen x_1 i form af den frie variabel: x_1=ix_2. Hvis vi antager x_2=1, får vi x_1=i, dvs. \varphi=\begin(pmatrix)i&1 \end(pmatrix)^T.

5(1). Vi nedskriver egenvektoren svarende til egenværdien \lambda_1= i\colon\, s_1(t)=i\cdot\sin(t)+1\cdot\cos(t). Mættet af alle egenvektorer svarende til egenværdien \lambda_1=i danner ikke-nul-funktioner, der er proportionale med s_1(t) .

4(2). For roden \lambda_2=-i finder vi på samme måde grundsystemet (bestående af én vektor) \varphi_2=\begin(pmatrix)-i&1 \end(pmatrix)^T løsninger til et homogent ligningssystem (D-\lambda_2E)x=o:

\begin(pmatrix)i&-1\\ 1&i \end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

5(2). Vi nedskriver egenvektoren svarende til egenværdien \lambda_2=-i\kolon\, s_2(t)=-i\cdot\sin(t)+1\cdot\cos(t). Mængden af ​​alle egenvektorer svarende til egenværdien \lambda_2=-i danner ikke-nul funktioner proportional med s_2(t) .


Se også Egenskaber for egenvektorer af lineære operatorer (transformationer) JavaScript er deaktiveret i din webbrowser.
For at udføre beregninger skal du aktivere ActiveX-kontroller!