Find egenværdierne for den lineære operator. Egenvektorer og egenværdier af en lineær operator

Den enkleste lineære operator er multiplikation af en vektor med et tal \(\lambda\). Denne operator strækker simpelthen alle vektorer med \(\lambda \) gange. Dens matrixform på enhver basis er \(diag(\lambda ,\lambda ,...,\lambda)\). For nøjagtighedens skyld fikserer vi grundlaget \(\(e\)\) i vektorrummet \(\mathit(L)\) og betragter en lineær operator med en diagonal matrixform i denne basis, \(\alpha = diag( \lambda _1,\lambda _2,...,\lambda _n)\). Denne operator strækker ifølge definitionen af ​​matrixformen \(e_k\) \(\lambda _k\) gange, dvs. \(Ae_k=\lambda _ke_k\) for alle \(k=1,2,...,n\). Det er praktisk at arbejde med diagonale matricer; funktionel regning er nem at konstruere for dem: for enhver funktion \(f(x)\) kan vi sætte \(f(diag(\lambda _1,\lambda _2,..., \lambda _n))= diag(f(\lambda _1),f(\lambda _2),...,f(\lambda _n))\). Der opstår således et naturligt spørgsmål: lad der være en lineær operator \(A\), er det muligt at vælge et sådant grundlag i vektorrummet, således at matrixformen for operatoren \(A\) er diagonal på dette grundlag? Dette spørgsmål fører til definitionen af ​​egenværdier og egenvektorer.

Definition. Lad for den lineære operator \(A\) eksistere en ikke-nul vektor \(u\) og et tal \(\lambda \) sådan at \[ Au=\lambda \cdot u. \quad \quad(59) \] Så kaldes vektoren \(u\). egenvektor operator \(A\), og tallet \(\lambda \) - det tilsvarende egenværdi operator \(A\). Mættet af alle egenværdier kaldes spektrum af den lineære operator \(EN\).

Et naturligt problem opstår: find for en given lineær operator dens egenværdier og de tilsvarende egenvektorer. Dette problem kaldes spektrumproblemet for en lineær operator.

Egenværdiligning

For bestemthedens skyld fikserer vi grundlaget i vektorrum, dvs. Vi vil antage, at det er givet én gang for alle. Så, som diskuteret ovenfor, kan hensynet til lineære operatorer reduceres til hensynet til matricer - matrixformer for lineære operatorer. Vi omskriver ligning (59) i formen \[ (\alpha -\lambda E)u=0. \] Her er \(E\) identitetsmatrixen, og \(\alpha\) er matrixformen af ​​vores lineære operator \(A\). Denne relation kan tolkes som et system \(n\) lineære ligninger for \(n\) ukendte - koordinaterne for vektoren \(u\). Desuden er dette et homogent ligningssystem, og vi bør finde det ikke-triviel løsning. Tidligere blev der givet en betingelse for eksistensen af ​​en sådan løsning - for dette er det nødvendigt og tilstrækkeligt, at systemets rang er mindre end antallet af ukendte. Dette indebærer ligningen for egenværdierne: \[ det(\alpha -\lambda E)=0. \quad \quad(60) \]

Definition. Ligning (60) kaldes karakteristisk ligning for den lineære operator \(A\).

Lad os beskrive egenskaberne for denne ligning og dens løsninger. Hvis vi skriver det eksplicit ud, får vi en ligning med formen \[ (-1)^n\lambda ^n+...+det(A)=0. \quad \quad(61) \] På venstre side er der et polynomium i variablen \(\lambda \). Sådanne ligninger kaldes algebraiske af graden \(n\). Lad os give nødvendige oplysninger om disse ligninger.

Hjælp til algebraiske ligninger.

Sætning. Lad alle egenværdier af den lineære operator \(A\) være primtal. Derefter danner det sæt af egenvektorer, der svarer til disse egenværdier, grundlaget for vektorrummet.

Af betingelserne for sætningen følger det, at alle egenværdier for operatoren \(A\) er forskellige. Antag, at mængden af ​​egenvektorer er lineært afhængig, så der er konstanter \(c_1,c_2,...,c_n\), som ikke alle er nul, og som opfylder betingelsen: \[ \sum_(k=1)^ nc_ku_k=0. \quad \quad(62) \]

Blandt sådanne formler, lad os overveje en, der inkluderer det mindste antal udtryk, og handle på den med operatoren \(A\). På grund af dens linearitet får vi: \[ A\venstre (\sum_(k=1)^nc_ku_k \right)=\sum_(k=1)^nc_kAu_k=\sum_(k=1)^nc_k\lambda _ku_k= 0. \quad \quad(63) \]

Lad for bestemthed \(c_1 \neq 0\). Hvis vi multiplicerer (62) med \(\lambda _1\) og trækker fra (63), får vi en relation på formen (62), men med et led mindre. Modsigelsen beviser teoremet.

Så under sætningens betingelser vises en basis forbundet med en given lineær operator - grundlaget for dens egenvektorer. Lad os overveje operatørens matrixform på et sådant grundlag. Som nævnt ovenfor er \(k\)'te kolonne i denne matrix dekomponeringen af ​​vektoren \(Au_k\) i forhold til basis. Men per definition, \(Au_k=\lambda _ku_k\), så denne udvidelse (det der er skrevet på højre side) indeholder kun et led, og den konstruerede matrix viser sig at være diagonal. Som et resultat finder vi, at under sætningens betingelser er matrixformen for operatoren i basis af dens egenvektorer lig med \(diag(\lambda _1,\lambda _2,...,\lambda _n)\ ). Derfor, hvis det er nødvendigt at udvikle funktionel regning for en lineær operator, er det rimeligt at arbejde på basis af dens egenvektorer.

Hvis der blandt egenværdierne af en lineær operator er multipler, bliver beskrivelsen af ​​situationen mere kompliceret og kan omfatte såkaldte Jordan-celler. Vi henviser læseren til mere avancerede tutorials til relevante situationer.

Diagonale matricer har den enkleste struktur. Spørgsmålet opstår, om det er muligt at finde et grundlag, hvor den lineære operators matrix ville have en diagonal form. Et sådant grundlag findes.
Lad os få et lineært rum R n og en lineær operator A, der virker i det; i dette tilfælde tager operator A R n ind i sig selv, det vil sige A:R n → R n .

Definition. En ikke-nul vektor kaldes en egenvektor for operatoren A, hvis operatoren A oversættes til en kollineær vektor, dvs. Tallet λ kaldes egenværdien eller egenværdien af ​​operatoren A, svarende til egenvektoren.
Lad os bemærke nogle egenskaber ved egenværdier og egenvektorer.
1. Enhver lineær kombination af egenvektorer operator A svarende til den samme egenværdi λ er en egenvektor med samme egenværdi.
2. Egenvektorer operator A med parvis forskellige egenværdier λ 1 , λ 2 , …, λ m er lineært uafhængige.
3. Hvis egenværdierne λ 1 =λ 2 = λ m = λ, så svarer egenværdien λ til ikke mere end m lineært uafhængige egenvektorer.

Så hvis der er n lineært uafhængige egenvektorer , svarende til forskellige egenværdier λ 1, λ 2, ..., λ n, så er de lineært uafhængige, derfor kan de tages som grundlag for rummet R n. Lad os finde formen af ​​matrixen for den lineære operator A på basis af dens egenvektorer, for hvilke vi vil handle med operatoren A på basisvektorerne: Derefter .
Således har matrixen af ​​den lineære operator A på grundlag af dens egenvektorer en diagonal form, og egenværdierne for operatoren A er langs diagonalen.
Er der et andet grundlag, hvor matricen har en diagonal form? Svaret på dette spørgsmål er givet af følgende sætning.

Sætning. Matrixen for en lineær operator A i basis (i = 1..n) har en diagonal form, hvis og kun hvis alle vektorerne i basis er egenvektorer af operatoren A.

Regel for at finde egenværdier og egenvektorer

Lad en vektor være givet , hvor x 1, x 2, …, x n er vektorens koordinater i forhold til basis og er egenvektoren for den lineære operator A svarende til egenværdien λ, dvs. Denne relation kan skrives ind matrixform

. (*)


Ligning (*) kan betragtes som en ligning til at finde , og det vil sige, at vi er interesserede i ikke-trivielle løsninger, da egenvektoren ikke kan være nul. Det er kendt, at ikke-trivielle løsninger af et homogent system af lineære ligninger eksisterer, hvis og kun hvis det(A - λE) = 0. For at λ skal være en egenværdi for operatoren A er det således nødvendigt og tilstrækkeligt, at det(A - λE) ) = 0.
Hvis ligning (*) er skrevet i detaljer i koordinatform, får vi et system af lineære homogene ligninger:

(1)
Hvor - lineær operatormatrix.

System (1) har en løsning, der ikke er nul, hvis dets determinant D er lig med nul


Vi modtog en ligning for at finde egenværdier.
Denne ligning kaldes den karakteristiske ligning, og dens venstre side kaldes det karakteristiske polynomium af matricen (operator) A. Hvis det karakteristiske polynomium ikke har nogen reelle rødder, så har matricen A ingen egenvektorer og kan ikke reduceres til diagonal form.
Lad λ 1, λ 2, …, λ n være de reelle rødder til den karakteristiske ligning, og blandt dem kan der være multipla. Ved at erstatte disse værdier igen med system (1), finder vi egenvektorerne.

Eksempel 12. Den lineære operator A virker i R 3 efter loven, hvor x 1, x 2, .., x n er koordinaterne til vektoren i basis , , . Find egenværdierne og egenvektorerne for denne operator.
Løsning. Vi bygger matrixen for denne operatør:
.
Vi opretter et system til bestemmelse af koordinaterne for egenvektorer:

Vi sammensætter en karakteristisk ligning og løser den:

.
λ 1,2 = -1, λ 3 = 3.
Ved at indsætte λ = -1 i systemet har vi:
eller
Fordi , så er der to afhængige variable og en fri variabel.
Lad x 1 være en fri ukendt, så Vi løser dette system på enhver måde og finder fælles beslutning af dette system: Det grundlæggende system af løsninger består af én løsning, da n - r = 3 - 2 = 1.
Sættet af egenvektorer svarende til egenværdien λ = -1 har formen: , hvor x 1 er et hvilket som helst andet tal end nul. Lad os vælge en vektor fra dette sæt, for eksempel ved at sætte x 1 = 1: .
På samme måde finder vi egenvektoren svarende til egenværdien λ = 3: .
I rummet R 3 består basis af tre lineært uafhængige vektorer, men vi modtog kun to lineært uafhængige egenvektorer, hvorfra grundlaget i R 3 ikke kan sammensættes. Derfor kan vi ikke reducere matrixen A af en lineær operator til diagonal form.

Eksempel 13. Givet en matrix .
1. Bevis at vektoren er en egenvektor af matrix A. Find egenværdien svarende til denne egenvektor.
2. Find et grundlag, hvor matrix A har en diagonal form.
Løsning.
1. Hvis , så er en egenvektor

.
Vektor (1, 8, -1) er en egenvektor. Egenværdi λ = -1.
Matrixen har en diagonal form i en basis bestående af egenvektorer. En af dem er berømt. Lad os finde resten.
Vi leder efter egenvektorer fra systemet:

Karakteristisk ligning: ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ2 - 1) = 0
λ1 = -3, λ2 = 1, λ3 = -1.
Lad os finde egenvektoren svarende til egenværdien λ = -3:

Rangeringen af ​​matrixen for dette system er to og lig med antallet af ukendte, så dette system har kun en nulløsning x 1 = x 3 = 0. x 2 her kan være alt andet end nul, for eksempel x 2 = 1. Vektoren (0 ,1,0) er således en egenvektor svarende til λ = -3. Lad os tjekke:
.
Hvis λ = 1, får vi systemet
Rangen af ​​matrixen er to. Vi krydser den sidste ligning over.
Lad x 3 være en gratis ukendt. Derefter x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
Hvis vi antager x 3 = 1, har vi (-3,-9,1) - en egenvektor svarende til egenværdien λ = 1. Tjek:

.
Da egenværdierne er reelle og distinkte, er vektorerne, der svarer til dem, lineært uafhængige, så de kan tages som basis i R 3 . Således i grundlaget , , matrix A har formen:
.
Ikke hver matrix af en lineær operator A:R n → R n kan reduceres til diagonal form, da der for nogle lineære operatorer kan være mindre end n lineære uafhængige egenvektorer. Men hvis matricen er symmetrisk, svarer roden af ​​den karakteristiske ligning af multiplicitet m til nøjagtigt m lineært uafhængige vektorer.

Definition. En symmetrisk matrix er en kvadratisk matrix, hvor de elementer, der er symmetriske om hoveddiagonalen, er lige store, det vil sige, hvor .
Noter. 1. Alle egenværdier af en symmetrisk matrix er reelle.
2. Egenvektorerne af en symmetrisk matrix svarende til parvis forskellige egenværdier er ortogonale.
Som en af ​​de mange anvendelser af det undersøgte apparat betragter vi problemet med at bestemme typen af ​​en andenordenskurve.

Lad være en lineær transformation af et n-dimensionelt lineært rum V. Ikke-nul vektor \boldsymbol(er) af lineært rum V, der opfylder betingelsen

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s),

hedder egenvektor for lineær transformation\mathcal(A) . Tallet \lambda i lighed (9,5) kaldes transformations egenværdi\mathcal(A) . Egenvektoren siges at svare til (tilhøre) egenværdien \lambda . Hvis rummet V er reelt (komplekst), så er egenværdien \lambda et reelt (komplekst) tal.

Sættet af alle egenværdier af en lineær transformation kaldes dens spektrum.

Lad os forklare geometrisk betydning egenvektorer. En ikke-nul vektor s er en egenvektor af transformationen \mathcal(A) hvis dens billede \mathcal(A) (\fedsymbol(er)) er kollineær til det omvendte billede af \boldsymbol(s) . Med andre ord, hvis \boldsymbol(s) er en egenvektor, så har transformationen \mathcal(A) et endimensionelt invariant underrum. Det modsatte udsagn er også sandt.

Faktisk, lad egenvektoren \boldsymbol(er) svare til en eller anden egenværdi \lambda . Enhver vektor \boldsymbol(v) fra \operatørnavn(Lin)(\fedsymbol(er)) ligner \boldsymbol(v)=\alpha \fedsymbol(er), hvor \alpha er et hvilket som helst tal fra det givne felt. Lad os finde billedet af denne vektor

\mathcal(A)(\boldsymbol(v))= \mathcal(A)(\alpha \boldsymbol(s))= \alpha\cdot \mathcal(A)(\boldsymbol(s))= \alpha\cdot \ lambda\cdot \boldsymbol(er)\i \operatørnavn(Lin) (\boldsymbol(er)).

Derfor, \mathcal(A)(\boldsymbol(v))\i \operatørnavn(Lin)(\boldsymbol(er)) for enhver vektor \fedsymbol(v)\i \operatørnavn(Lin)(\fedsymbol(er)), dvs. underrum \operatørnavn(Lin)(\fedsymbol(er)) invariant under transformationen \mathcal(A) . Subspace dimension \operatørnavn(Lin) (\fedsymbol(er)) er lig med en, da \boldsymbol(er)\ne \boldsymbol(o) a-priory.

Det omvendte udsagn bevises ved at ræsonnere i omvendt rækkefølge.

Forholdet mellem egenvektorer af en lineær transformation (operator) og dens matrix

Tidligere blev egenvektorer og egenværdier af en matrix overvejet. Husk, at en egenvektor af en kvadratisk matrix A af n. orden er en numerisk søjle, der ikke er nul s=\begin(pmatrix)s_1&\cdots&s_(n)\end(pmatrix)^T, tilfredsstillende betingelse (7.13):

A\cdot s=\lambda\cdot s.

Tallet \lambda i (9.6) kaldes egenværdien af ​​matricen A. Man mente, at egenværdien \lambda og tallene s_i~(i=1,\ldots,n) hører til området komplekse tal.

Disse begreber er relateret til egenvektorer og egenværdier af en lineær transformation.

Sætning 9.3 om egenvektorerne for en lineær transformation og dens matrix. Lade \mathcal(A)\kolon V\til V er en lineær transformation af et n-dimensionelt lineært rum V med basis. Så er egenværdien \lambda og koordinatsøjlen(e) af egenvektoren \boldsymbol(s) for transformationen \mathcal(A) egenværdien og egenvektoren for matricen A for denne transformation defineret med hensyn til basis \boldsymbol(e)_1,\ldots, \boldsymbol(e)_n, dvs.

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s)\quad \Rightarrow\quad A\cdot s=\lambda\cdot s, Hvor \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n,~ s=\begin(pmatrix)s_1&\cdots& s_n\end(pmatrix)^T.

Det omvendte udsagn er sandt for yderligere betingelser: hvis kolonne s=\begin(pmatrix) s_1&\cdots&s_n\end(pmatrix)^T og tallet \lambda er egenvektoren og egenværdien af ​​matricen A, og tallene s_1,\ldots,s_n,\lambda hører til det samme talfelt, som det lineære rum V er defineret over, derefter vektoren \boldsymbol(s)=s_1 \boldsymbol(e)_1+ \ldots+s_n \boldsymbol(e)_n og tal \lambda er egenvektoren og egenværdien af ​​den lineære transformation \mathcal(A)\kolon V\til V med matrix A i basis \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n.

Faktisk har betingelse (9.5) i koordinatform formen (9.6), som falder sammen med definitionen (7.13) af matrix-egenvektoren. Tværtimod indebærer lighed (9.6) lighed (9.5), forudsat at vektorerne og \lambda\cdot \boldsymbol(er) defineret, dvs. tal s_1,\ldots,s_n,\lambda tilhører det samme talfelt, som det lineære rum er defineret over.

Husk at finde egenværdierne af en matrix reducerer til at løse dens karakteristiske ligning \Delta_A(\lambda)=0, Hvor \Delta_A(\lambda)=\det(A-\lambda E) er det karakteristiske polynomium i matrix A. Til lineær transformation introducerer vi lignende begreber.

Karakteristisk polynomium af lineær transformation \mathcal(A)\kolon V\til V n-dimensionelt lineært rum er det karakteristiske polynomium af matrix A af denne transformation, fundet med hensyn til enhver basis af rummet V.

Ligningen kaldes karakteristisk ligning for lineær transformation.

Konvertering \mathcal(A)-\lambda\mathcal(E) kaldes karakteristisk for en lineær transformation \mathcal(A)\kolon V\til V.

Bemærkninger 9.4

1. Det karakteristiske polynomium for en lineær transformation afhænger ikke af det grundlag, som transformationsmatrixen findes i.

Faktisk matricerne \mathop(A)\limits_((\boldsymbol(e))) Og \mathop(A)\limits_((\boldsymbol(f))) lineær transformation \mathcal(A) i baser (\boldsymbol(e))= (\boldsymbol(e)_1,\ldots, \boldsymbol(e)_n) Og (\boldsymbol(f))=(\boldsymbol(f)_1,\ldots,\boldsymbol(f)_n) er ifølge (9.4) ens: \nathop(A)\limits_((\boldsymbol(f)))=S^(-1)\mathop(A)\limits_((\boldsymbol(e)))S, hvor S er overgangsmatrixen fra basis (\boldsymbol(e)) til basis (\boldsymbol(f)). Som vist tidligere falder de karakteristiske polynomier af sådanne matricer sammen (se egenskab 3). Derfor kan vi bruge notationen til det karakteristiske polynomium for transformationen \mathcal(A). \Delta_(\mathcal(A))(\lambda) uden at specificere matrixen for denne transformation.

2. Af sætning 9.3 følger det, at enhver kompleks (real, rationel) rod af den karakteristiske ligning er en egenværdi af den lineære transformation \mathcal(A)\kolon V\til V lineært rum V defineret over feltet af komplekse (reelle, rationelle) tal.

3. Af sætning 9.3 følger det, at enhver lineær transformation af et komplekst lineært rum har et endimensionelt invariant underrum, da denne transformation har en egenværdi (se punkt 2), og derfor egenvektorer. Et sådant underrum er for eksempel det lineære spænd for enhver egenvektor. En transformation af et reelt lineært rum har muligvis ikke endimensionelle invariante underrum, hvis alle rødderne af den karakteristiske ligning er komplekse (men ikke reelle).

Sætning 9.4 om invariante underrum af en lineær operator i et reelt rum. Hver lineær transformation af et reelt lineært rum har et endimensionelt eller todimensionalt invariant underrum.

Lad os faktisk sammensætte en lineær transformationsmatrix A \mathcal(A)\kolon V\til V n-dimensionelt reelt lineært rum V på en vilkårlig basis \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n. Elementerne i denne matrix er reelle tal. Derfor er det karakteristiske polynomium \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E) er et polynomium af grad n med reelle koefficienter. Ifølge følge 3 og 4 af algebras grundlæggende sætning kan et sådant polynomium have reelle rødder og par af komplekse konjugerede rødder.

Hvis \lambda=\lambda_1 er en reel rod af den karakteristiske ligning, så er den tilsvarende egenvektor s=\begin(pmatrix)s_1&\cdots&s_n\end(pmatrix)^T matrix A er også reel. Derfor definerer den en egenvektor \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n lineær transformation (se sætning 9.3). I dette tilfælde er der et endimensionelt underrum invariant under \mathcal(A) \operatørnavn(Lin)(\fedsymbol(er))(se den geometriske betydning af egenvektorer).

Hvis \lambda=\alpha\pm\beta i er et par komplekse konjugerede rødder (\beta\ne0), så har egenvektoren s\ne o af matrix A også komplekse elementer: s=\begin(pmatrix)x_1+y_1i&\cdots& x_n+y_n i \end(pmatrix)^T. Det kan repræsenteres som s=x+yi, hvor x,\,y er reelle kolonner. Ligestilling (9,6) vil så have formen

A\cdot(x+yi)= (\alpha+\beta i)\cdot(x+yi).


Ved at isolere de reelle og imaginære dele får vi systemet

\begin(cases)Ax=\alpha x-\beta y,\\ Ay=\beta x+\alpha y.\end(cases)

Lad os vise, at kolonnerne (x) og (y) er lineært uafhængige. Lad os overveje to tilfælde. Hvis x=o, så følger det af den første ligning (9.7), at y=o, da \beta\ne0. Derefter s=o, hvilket modsiger betingelsen s\ne o. Lad os antage, at x\ne o og x- og y-kolonnerne er proportionale, dvs. der er et reelt tal \gamma således, at y=\gamma x . Så får vi fra system (9.7). \begin(cases)Ax=(\alpha-\beta\gamma)x,\\ \gamma Ax=(\beta-\alpha\gamma)x. \end(cases) Tilføjer vi den første ligning ganget med (-\gamma) til den anden ligning, når vi frem til ligheden [(\beta+\alpha\gamma)-\gamma(\alpha-\beta\gamma)]x=o. Siden x\ne o , så udtrykket i firkantede parenteser er lig med nul, dvs. (\beta+\alpha\gamma)- \gamma(\alpha- \beta\gamma)= \beta(1+\gamma^2)=0. Siden \beta\ne0 , så \gamma^2=-1 . Dette kan ikke ske, da \gamma er et reelt tal. Vi har en modsigelse. Således er x- og y-kolonnerne lineært uafhængige.

Overvej underrummet hvor \boldsymbol(x)= x_1 \boldsymbol(e)_1+\ldots+x_n \boldsymbol(e)_n,~ \boldsymbol(y)= y_1 \boldsymbol(e)_1+\ldots+ y_n \boldsymbol(y)_n. Dette underrum er todimensionelt, da vektorerne \fedsymbol(x),\fedsymbol(y) er lineært uafhængige (som vist ovenfor er deres x,y-koordinatkolonner lineært uafhængige). Af (9.7) følger det \begin(cases)\mathcal(A)(\boldsymbol(x))=\alpha \boldsymbol(x)-\beta \boldsymbol(y),\\ \mathcal(A)(\boldsymbol(y))=\ beta \boldsymbol(x)+\alpha \boldsymbol(y),\end(cases) de der. billedet af enhver vektor, der hører til \operatørnavn(Lin)(\fedsymbol(x),\fedsymbol(y)), hører også til \operatørnavn(Lin)(\fedsymbol(x),\fedsymbol(y)). Derfor, \operatørnavn(Lin)(\fedsymbol(x),\fedsymbol(y)) er et todimensionelt underrum invariant under transformationen \mathcal(A) , hvilket er, hvad vi skulle bevise.

Find egenvektorer og værdier af en lineær operator (transformation)

At finde egenvektorer og egenværdier for en lineær transformation \mathcal(A)\kolon V\til V reelt lineært rum V, skal følgende trin udføres.

1. Vælg et vilkårligt grundlag \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n lineært rum V og find transformationsmatrixen A \mathcal(A) i denne basis.

2. Komponer det karakteristiske polynomium for transformationen \mathcal(A)\colon\, \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E).

3. Find alle forskellige rigtige rødder \lambda_1,\ldots,\lambda_k karakteristisk ligning \Delta_(\mathcal(A))(\lambda)=0. Komplekse (men ikke reelle) rødder af den karakteristiske ligning bør kasseres (se afsnit 2 i bemærkning 9.4).

4. Find grundsystemet for roden \lambda=\lambda_1 \varphi_1, \varphi_2,\ldots,\varphi_(n-r) løsninger til et homogent ligningssystem (A-\lambda_1E)x=o , hvor r=\operatørnavn(rg)(A-\lambda_1E). For at gøre dette kan du bruge enten en algoritme til at løse et homogent system eller en af ​​metoderne til at finde den fundamentale matrix.

5. Skriv lineært uafhængige egenvektorer af transformationen \mathcal(A) svarende til egenværdien \lambda_1:

\begin(matrix) \boldsymbol(s)_1=\varphi_(1\,1)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,1)\boldsymbol(e)_n,\\ \boldsymbol(s) _2=\varphi_(1\,2)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,2)\boldsymbol(e)_n,\\ \vdots\\ \boldsymbol(s)_(n-r)=\ varphi_(1\,n-r) \boldsymbol(e)_1+ \ldots+\varphi_(n\,n-r)\boldsymbol(e)_n. \end(matrix)

For at finde mængden af ​​alle egenvektorer svarende til egenværdien \lambda_1, danne lineære kombinationer, der ikke er nul

\boldsymbol(s)= C_1 \boldsymbol(s)_1+C_2 \boldsymbol(s)_2+\ldots+ C_(n-r)\boldsymbol(s)_(n-r),

Hvor C_1,C_2,\ldots,C_(n-r)- vilkårlige konstanter, ikke lig med nul samtidigt.

Gentag trin 4, 5 for de resterende egenværdier \lambda_2,\ldots,\lambda_k lineær transformation \mathcal(A) .

For at finde egenvektorerne for en lineær transformation af et komplekst lineært rum skal du i trin 3 bestemme alle rødderne af den karakteristiske ligning og, uden at kassere de komplekse rødder, udføre trin 4 og 5 for dem.

Eksempler på egenvektorer af lineære operatorer (transformationer)

1. For nulkonvertering \mathcal(O)\kolon V\til V enhver ikke-nul vektor er en egenvektor svarende til en nul egenværdi \lambda=0, da \mathcal(O)(\boldsymbol(s))=0\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

2. Til identitetstransformation \mathcal(E)\kolon V\til V enhver vektor, der ikke er nul \fedsymbol(er)\i V er den egen, der svarer til identitetens egenværdi \lambda=1 , da \mathcal(E) (\boldsymbol(s))=1\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

3. Til central symmetri \mathcal(Z)_(\boldsymbol(o))\kolon V\til V enhver vektor, der ikke er nul \fedsymbol(er)\i V \mathcal(Z)_(\boldsymbol(o)) (\boldsymbol(s))=(-1)\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

4. For homoteti \mathcal(H)_(\lambda)\kolon V\til V enhver vektor, der ikke er nul \fedsymbol(er)\i V er egenværdien, der svarer til egenværdien \lambda (homotetitetskoefficienten), eftersom \mathcal(H)_(\lambda) (\boldsymbol(\boldsymbol(s)))= \lambda\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

5. At vende \mathcal(R)_(\varphi)\colon V_2\til V_2 plan (at ) er der ingen egenvektorer, da når den roteres med en vinkel, der ikke er et multiplum af \pi, er billedet af hver ikke-nul vektor ikke-kollineært med det inverse billede. Her betragter vi rotationen af ​​det reelle plan, dvs. todimensionelt vektorrum over feltet af reelle tal.

6. For differentieringsoperatøren \mathcal(D)\colon P_n(\mathbb(R))\to P_n(\mathbb(R)) ethvert polynomium, der ikke er nul, af grad nul (ikke identisk nul) er en egenvektor svarende til nul-egenværdien \lambda=0 , da \mathcal(D)(s(x))=0\cdot s(x) \forall s(x)\equiv \text(const). Ethvert polynomium af ikke-nul grad er ikke en egenvektor, da polynomiet ikke er proportionalt med dets afledte: \mathcal(D)(s(x))=s"(x)\ne \lambda\cdot s(x), da de har forskellige grader.

7. Overvej operatøren \Pi_(L_1)\kolon V\til V projektion på underrummet L_1 parallelt med underrummet L_2. Her V=L_1\plus L_2, \Pi_(L_1)(\boldsymbol(v)_1+ \boldsymbol(v)_2)=\boldsymbol(v)_1 Til \Pi_(L_1)(\boldsymbol(v)_1)=1\cdot \boldsymbol(v)_1, og enhver ikke-nul vektor er en egenvektor svarende til egenværdien \lambda=0 , da \Pi_(L_2)(\boldsymbol(v)_2)=0\cdot \boldsymbol(v)_2 \Pi_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1= \lambda(\boldsymbol(v)_1+\boldsymbol(v)_2) det er muligt enten på eller kl.

8. Overvej operatøren \mathcal(Z)_(L_1)\kolon V\til V refleksioner på underrummet L_1 parallelt med underrummet L_2. Her V=L_1\plus L_2 \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2, Til \boldsymbol(v)=\boldsymbol(v)_1+\boldsymbol(v)_2, \boldsymbol(v)_1\i L_1,~ \boldsymbol(v)_2\i L_2. For denne operator, enhver vektor, der ikke er nul \boldsymbol(v)_1\i L_1 er egenværdien svarende til egenværdien \lambda=1 , da \mathcal(Z)_(L_1) (\boldsymbol(v)_1)= 1\cdot \boldsymbol(v)_1 og enhver vektor, der ikke er nul \boldsymbol(v)_2\i L_2 er egenværdien svarende til egenværdien \lambda=-1 siden \mathcal(Z)_(L_2) (\boldsymbol(v)_2)= (-1)\cdot \boldsymbol(v)_2. Andre vektorer er ikke egenvektorer, da ligheden \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2= \lambda(\boldsymbol()_1+ \boldsymbol(v )_2) muligt enten med \boldsymbol(v)_1=\boldsymbol(o), eller kl \boldsymbol(v)_2= \boldsymbol(o).

9. I rummet V_3 radius vektorer af rummet, plottet fra fast punkt O, overvej at dreje med en vinkel \varphi\ne\pi k,~ k\in\mathbb(Z), omkring \ell-aksen defineret af radiusvektoren \vec(\ell) . Enhver ikke-nul vektor kollineær med vektoren \vec(\ell) er en egen, der svarer til egenværdien \lambda=1 . Denne transformation har ingen andre egenvektorer.

Eksempel 9.1. Find egenværdierne og egenvektorerne for differentieringsoperatoren \mathcal(D)\kolon T_1\til T_1, transformerer rummet af trigonometriske polynomier (frekvens \omega=1):

a) med reelle koefficienter T_1=T_1(\mathbb(R))= \operatørnavn(Lin) (\sin(t),\cos(t));

b) med komplekse koefficienter T_1=T_1(\mathbb(C))= \operatørnavn(Lin) (\sin(t),\cos(t)).

Løsning. 1. Lad os vælge et standardgrundlag e_1(t)=\sin(t),~ e_2(t)=\cos(t) og på dette grundlag komponerer vi matrixen D af operatoren \mathcal(D):

D=\begin(pmatrix)0&-1\\ 1&0 \end(pmatrix)\!.

2. Lad os sammensætte det karakteristiske polynomium for transformationen \mathcal(D)\colon\, \Delta_(\mathcal(D))(\lambda)= \begin(vmatrix)-\lambda&-1\\ 1&-\lambda\end(vmatrix)= \lambda^2+ 1..

3. Den karakteristiske ligning \lambda^2+1=0 har komplekse konjugerede rødder \lambda_1=i,~ \lambda_2=-i. Der er ingen reelle rødder, derfor har transformationen \mathcal(D) af det reelle rum T_1(\mathbb(R)) (tilfælde (a)) ingen egenværdier og derfor ingen egenvektorer. Transformationen \mathcal(D) af det komplekse rum T_1(\mathbb(C)) (tilfælde (b)) har komplekse egenværdier \lambda_1,\,\lambda_2.

4(1). For roden \lambda_1=i finder vi grundsystemet \varphi_1 af løsninger til det homogene ligningssystem (D-\lambda_1 E)x=o:

\begin(pmatrix)-i&-1\\ 1&-i\end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

Lad os reducere systemmatricen til trinvis form ved at gange den første ligning med (i) og trække den fra den anden ligning:

\begin(pmatrix)-i&-1\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\ \0&0\end(pmatrix)\!.

Vi udtrykker grundvariablen x_1 i form af den frie variabel: x_1=ix_2. Hvis vi antager x_2=1, får vi x_1=i, dvs. \varphi=\begin(pmatrix)i&1 \end(pmatrix)^T.

5(1). Vi nedskriver egenvektoren svarende til egenværdien \lambda_1= i\colon\, s_1(t)=i\cdot\sin(t)+1\cdot\cos(t). Mættet af alle egenvektorer svarende til egenværdien \lambda_1=i danner ikke-nul-funktioner, der er proportionale med s_1(t) .

4(2). For roden \lambda_2=-i finder vi på samme måde grundsystemet (bestående af én vektor) \varphi_2=\begin(pmatrix)-i&1 \end(pmatrix)^T løsninger til et homogent ligningssystem (D-\lambda_2E)x=o:

\begin(pmatrix)i&-1\\ 1&i \end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

5(2). Vi nedskriver egenvektoren svarende til egenværdien \lambda_2=-i\kolon\, s_2(t)=-i\cdot\sin(t)+1\cdot\cos(t). Mængden af ​​alle egenvektorer svarende til egenværdien \lambda_2=-i danner ikke-nul funktioner proportional med s_2(t) .


Se også Egenskaber for egenvektorer af lineære operatorer (transformationer) JavaScript er deaktiveret i din webbrowser.
For at udføre beregninger skal du aktivere ActiveX-kontroller!

1. Begrebet lineær operator

Lade R Og S lineære rum, der har dimension n Og m henholdsvis. Operatør EN handler fra R V S kaldet en kortlægning af formen , som associerer hvert element x plads R et eller andet element y plads S. Til denne kortlægning vil vi bruge notationen y= EN(x) eller y= EN x.

Definition 1. Operatør EN handler fra R V S kaldes lineær hvis for nogen elementer x 1 og x 2 pladser R og evt λ fra nummerfelt K relationerne er tilfredse

  1. EN(x 1 +x 2)=ENx 1 +ENx 2 .
  2. EN(λx)=λ ENx.

Hvis plads S falder sammen med rummet R, derefter en lineær operator, der virker ud fra R V R kaldet en lineær transformation af rummet R.

Lad to vektorrum være givet n- målt R Og m- målt S, og lad henholdsvis baserne og angives i disse rum. Lad kortlægningen gives

Lad os nu vise det modsatte, dvs. det for enhver lineær operator EN, der repræsenterer rummet R V S og vilkårlige baser og i R Og S derfor er der en sådan matrix EN med elementer fra et numerisk felt K, at den lineære afbildning (1) defineret af denne matrix udtrykker koordinaterne for den afbildede vektor y gennem koordinaterne for den oprindelige vektor x.

Lade x− vilkårligt element i R. Derefter

Hvor en ij− koordinater for den resulterende vektor i basis.

Brug derefter operatøren EN til element x og under hensyntagen til (3) og (4), har vi

Så vil lighed (5) antage følgende form:

Så kan udtryk (6) skrives i matrixform:

Hvor x∈R betyder at x hører til rummet R.

Summen af ​​lineære operatorer er angivet som følger C=A+B. Det er let at verificere, at summen af ​​lineære operatorer også er en lineær operator.

Lad os anvende operatøren C til basisvektoren e j, Derefter:

3. Multiplikation af lineære operatorer

Lad tre lineære rum angives R, S Og T. Lad den lineære operator B viser R V S, og den lineære operator EN viser S V T.

Definition 3. Produkt af operatører EN Og B kaldet operatør C, hvortil følgende ligestilling gælder for evt x fra R:

Cx=EN(Bx), xR.
(12)

Produktet af lineære operatorer er angivet C=AB. Det er let at se, at produktet af lineære operatorer også er en lineær operator.

Altså operatøren C viser plads R V T. Lad os vælge i mellemrum R, S Og T baser og betegne dem med A, B Og C operatørmatricer EN,B Og C svarende til disse baser. Derefter kortlægninger af lineære operatorer EN, B, C

Under hensyntagen til vilkårligheden af ​​x, får vi

Altså operatøren C viser plads R V S. Lad os vælge i mellemrum R og S baser og betegne dem med EN operatørmatrix EN vektorlighederne svarende til disse baser

kan skrives i form af matrixligheder

Hvor x, y, z− vektorer x, y, z− præsenteret i form af koordinatsøjler. Derefter

I betragtning af vilkårligheden x, vi får

Derfor er operatørens produkt C tallet λ svarer til produktet af matrixen EN pr nummer λ .

5. Nul-operatør

En operator, der kortlægger alle elementer i rummet R til nul-elementet i rummet S kaldes null-operatør og er betegnet med O. Null-operatorens handling kan skrives som følger:

7. Lineær operatorkerne

Definition 5. Kernel af en lineær operator EN kaldes mængden af ​​alle disse elementer x plads R Økse=0.

Kernen i en lineær operator kaldes også operatordefekten. Kernen i en lineær operator er angivet med symbolet ker EN.

8. Billede af en lineær operator

Definition 6. Billedet af en lineær operator EN kaldes mængden af ​​alle elementer y plads R, for hvilke følgende ligestilling gælder: y=Ax for alle x fra R.

Billedet af en lineær operator er angivet med im EN.

9. Lineær operatørrang

Definition 7. Rang af en lineær operator EN angivet med rang EN kaldes et tal svarende til billedets dimension im EN operatør EN, dvs.: rang EN=dim(im EN).

Definition 5.3. Ikke-nul vektor x i lineært rum L kaldes egenvektor for den lineære operator A: L → L, hvis forholdet Ax = λx gælder for et eller andet reelt tal A. I dette tilfælde kaldes tallet λ egenværdi (egenværdi) af den lineære operator EN.

Eksempel 5.3. Det lineære rum K n [x] af polynomier af højst grad n indeholder polynomier af grad nul, dvs. permanente funktioner. Da dc/dx = 0 = 0 c, er polynomier af grad nul p(x) = c ≠ 0 egenvektorerne for den lineære differentieringsoperator, og tallet λ = 0 er egenværdien af ​​denne operator. #

Sættet af alle egenværdier af en lineær operator kaldes spektrum af den lineære operator . Hver egenvektor er forbundet med sin egen egenværdi. Faktisk, hvis en vektor x samtidig opfylder to ligheder Ax = λx og Ax = μx, så λx = μx, hvorfra (λ - μ)x = 0. Hvis λ - μ ≠ 0, ganges ligheden med tallet (λ - μ ) -1 og som et resultat får vi at x = 0. Men dette er i modstrid med definitionen af ​​en egenvektor, da en egenvektor altid er ikke-nul.

Hver egenværdi har sine egne egenvektorer, og dem er der uendeligt mange af. Faktisk, hvis x er en egenvektor for en lineær operator A med en egenværdi λ, dvs. Ах = λx, så har vi for ethvert reelt tal α, der ikke er nul, αx ≠ 0 og А(αх) = α(Ах) = αλx = λ(αx). Det betyder, at vektoren αx også er en egenvektor for den lineære operator.

Bemærkning 5.1. De taler ofte om egenværdier (tal), spektrum og egenvektorer af en kvadratisk matrix . Det betyder følgende. Matrix A af orden n er matrix nogle lineær operator i en fast basis, der opererer i n-dimensionelt lineært rum. For eksempel hvis vi stopper kl standardbasis i lineært aritmetisk rum Rn, så definerer matricen A en lineær operator A, der afbilder en vektor x ∈ Rn med en koordinatsøjle x til en vektor med en koordinatsøjle Ax. Matrix A er netop matrix A. Det er naturligt at identificere en operator med dens matrix på samme måde som en aritmetisk vektor identificeres med en søjle af dens koordinater. Denne identifikation, som ofte bruges og ikke altid er specificeret, gør det muligt at overføre "operatør"-termer til matricer.

Spektret af en lineær operator er tæt forbundet med dens karakteristisk ligning.

Sætning 5.3. For at et reelt tal λ skal være en egenværdi for en lineær operator, er det nødvendigt og tilstrækkeligt, at det er roden til denne operators karakteristiske ligning.

◄ Nødvendighed. Lad tallet λ være en egenværdi af den lineære operator A: L → L. Det betyder, at der er en vektor x ≠ 0, for hvilken

Ax = λx. (5.2)

Bemærk, at der i L er identitetsoperatør I: Ix = x for enhver vektor x. Ved at bruge denne operator transformerer vi lighed (5.2): Ах = λIx, eller

(A - λI)x = 0. (5,3)

Lad os skrive vektorligheden (5.3) i en eller anden basis b. Matricen for den lineære operator A - λI vil være matrixen A - λE, hvor A er matrixen for den lineære operator A i basis b, og E er identitetsmatrixen, og lad x være kolonnen af ​​koordinater for egenvektoren x . Så er x ≠ 0, og vektorligheden (5.3) er ækvivalent med matrixen

(A - λE)x = 0, (5,4)

som er en matrixform for registrering af et homogent system af lineær algebraiske ligninger(SLAU) med kvadratisk matrix A - λE af orden n. Dette system har en ikke-nul-løsning, som er x-koordinatsøjlen for egenvektoren x. Derfor har matrixen A - λE af system (5.4) en nuldeterminant, dvs. det(A - λE) = 0. Det betyder, at λ er roden til den karakteristiske ligning for den lineære operator A.

Tilstrækkelighed. Det er let at se, at ovenstående ræsonnement kan udføres i omvendt rækkefølge. Hvis λ er roden til den karakteristiske ligning, så gælder i et givet grundlag b ligheden det (A - λE) = 0. Følgelig er matrixen af ​​den homogene SLAE (5.4), skrevet på matrixform, degenereret, og systemet har en ikke-nul løsning x. Denne ikke-nul-løsning er et sæt koordinater i basis b af en eller anden ikke-nul vektor x, for hvilken vektorligheden (5.3) eller dens ækvivalente lighed (5.2) gælder. Vi kommer til den konklusion, at tallet λ er en egenværdi af den lineære operator A.

Hver egenværdi λ af matricen (lineær operator) er forbundet med dens mangfoldighed, ved at sætte den lig med multipliciteten af ​​roden λ af den karakteristiske ligning for denne matrix (af denne lineære operator).

Mættet af alle egenvektorer svarende til en given egenværdi for en lineær operator er ikke lineært underrum, da dette sæt ikke indeholder nul vektor, hvilket per definition ikke kan være ordentligt. Men denne formelle og let aftagelige hindring er den eneste. Lad os med £(A, λ) betegne mængden af ​​alle egenvektorer for den lineære operator A i det lineære rum L svarende til egenværdien λ, med nulvektoren tilføjet til denne mængde.

Sætning 5.4. Mængden £(A,λ) er et lineært underrum i L.

◄ Lad os vælge vilkårlige to vektor x,y∈ £(A, λ) og bevis, at for enhver reel α og β hører vektoren αx + βу også til £(A, λ). For at gøre dette beregner vi billedet af denne vektor under påvirkning af den lineære operator A:

А(αх + βу) = А((αx) + А(βу) = αАх + βАу = α(λх) + β(λу) = λ(αx) + λ(βу) = λ(αx + βу).

For vektoren z = αх + βу gælder således forholdet Az = λz. Hvis z er en nulvektor, så hører den til £(A,λ). Hvis den ikke er nul, så er den ifølge den beviste sammenhæng en egenværdi med en egenværdi λ og hører igen til mængden £(A, λ).

Det lineære underrum £(A,λ) kaldes nogle gange egenunderrum af den lineære operator *. Det er et særligt tilfælde invariant underrum lineær operator A - et lineært underrum, således at for enhver vektor x ∈ H hører vektoren Ax også til H.

Et invariant underrum af en lineær operator er også det lineære spænd for ethvert system af dets egenvektorer. Et invariant underrum af en lineær operator, der ikke er relateret til dens egenvektorer, er operatørbillede.