Egenværdier af en lineær operator defineret af en matrix. Egenvektorer og lineære operatorværdier (transformationer)

Definition 5.3. Ikke-nul vektor x i lineært rum L kaldes egenvektor for den lineære operator A: L → L, hvis forholdet Ax = λx gælder for et eller andet reelt tal A. I dette tilfælde kaldes tallet λ egenværdi (egenværdi) af den lineære operator EN.

Eksempel 5.3. Det lineære rum K n [x] af polynomier af grad ikke højere end n indeholder polynomier af grad nul, dvs. permanente funktioner. Da dc/dx = 0 = 0 c, er polynomier af grad nul p(x) = c ≠ 0 egenvektorerne for den lineære differentieringsoperator, og tallet λ = 0 er egenværdien af ​​denne operator. #

Sættet af alle egenværdier af en lineær operator kaldes spektrum af den lineære operator . Hver egenvektor er forbundet med sin egen egenværdi. Faktisk, hvis en vektor x samtidig opfylder to ligheder Ax = λx og Ax = μx, så λx = μx, hvorfra (λ - μ)x = 0. Hvis λ - μ ≠ 0, ganges ligheden med tallet (λ - μ ) -1 og som et resultat får vi at x = 0. Men dette er i modstrid med definitionen af ​​en egenvektor, da en egenvektor altid er ikke-nul.

Hver egenværdi har sine egne egenvektorer, og dem er der uendeligt mange af. Faktisk, hvis x er en egenvektor for en lineær operator A med en egenværdi λ, dvs. Ах = λx, så har vi for ethvert reelt tal α, der ikke er nul, αx ≠ 0 og А(αх) = α(Ах) = αλx = λ(αx). Det betyder, at vektoren αx også er en egenvektor for den lineære operator.

Bemærkning 5.1. De taler ofte om egenværdier (tal), spektrum og egenvektorer af en kvadratisk matrix . Det betyder følgende. Matrix A af orden n er matrix nogle lineær operator i en fast basis, der opererer i n-dimensionelt lineært rum. For eksempel hvis vi stopper kl standardbasis i lineært aritmetisk rum Rn, så definerer matricen A en lineær operator A, der afbilder en vektor x ∈ Rn med en koordinatsøjle x til en vektor med en koordinatsøjle Ax. Matrix A er netop matrix A. Det er naturligt at identificere en operator med dens matrix på samme måde som en aritmetisk vektor identificeres med en søjle af dens koordinater. Denne identifikation, som ofte bruges og ikke altid er specificeret, gør det muligt at overføre "operatør"-termer til matricer.

Spektret af en lineær operator er tæt forbundet med dens karakteristisk ligning.

Sætning 5.3. For at et reelt tal λ skal være en egenværdi for en lineær operator, er det nødvendigt og tilstrækkeligt, at det er roden til denne operators karakteristiske ligning.

◄ Nødvendighed. Lad tallet λ være en egenværdi af den lineære operator A: L → L. Det betyder, at der er en vektor x ≠ 0, for hvilken

Ax = λx. (5.2)

Bemærk, at der i L er identitetsoperatør I: Ix = x for enhver vektor x. Ved at bruge denne operator transformerer vi lighed (5.2): Ах = λIx, eller

(A - λI)x = 0. (5,3)

Lad os skrive vektorligheden (5.3) i en eller anden basis b. Matricen for den lineære operator A - λI vil være matrixen A - λE, hvor A er matrixen for den lineære operator A i basis b, og E er identitetsmatrixen, og lad x være kolonnen af ​​koordinater for egenvektoren x . Så er x ≠ 0, og vektorligheden (5.3) er ækvivalent med matrixen

(A - λE)x = 0, (5,4)

som er en matrixform for registrering af et homogent system af lineær algebraiske ligninger(SLAE) med en kvadratisk matrix A - λE af orden n. Dette system har en ikke-nul-løsning, som er x-koordinatsøjlen for egenvektoren x. Derfor har matrixen A - λE af system (5.4) en nuldeterminant, dvs. det(A - λE) = 0. Det betyder, at λ er roden til den karakteristiske ligning for den lineære operator A.

Tilstrækkelighed. Det er let at verificere, at ovenstående ræsonnement kan udføres i omvendt rækkefølge. Hvis λ er roden til den karakteristiske ligning, så gælder i et givet grundlag b ligheden det (A - λE) = 0. Følgelig er matrixen af ​​den homogene SLAE (5.4), skrevet i matrixform, er degenereret, og systemet har en ikke-nul løsning x. Denne ikke-nul-løsning er et sæt koordinater i basis b af en eller anden ikke-nul vektor x, for hvilken vektorligheden (5.3) eller dens ækvivalente lighed (5.2) gælder. Vi kommer til den konklusion, at tallet λ er en egenværdi af den lineære operator A.

Hver egenværdi λ af matricen (lineær operator) er forbundet med dens mangfoldighed, ved at sætte den lig med multipliciteten af ​​roden λ af den karakteristiske ligning for denne matrix (af denne lineære operator).

Mættet af alle egenvektorer svarende til en given egenværdi for en lineær operator er ikke lineært underrum, da dette sæt ikke indeholder nul vektor, hvilket per definition ikke kan være ordentligt. Men denne formelle og let aftagelige hindring er den eneste. Lad os med £(A, λ) betegne mængden af ​​alle egenvektorer af den lineære operator A i det lineære rum L svarende til egenværdien λ, med nulvektoren tilføjet til denne mængde.

Sætning 5.4. Mængden £(A,λ) er et lineært underrum i L.

◄ Lad os vælge vilkårlige to vektor x,y∈ £(A, λ) og bevis, at for enhver reel α og β hører vektoren αx + βу også til £(A, λ). For at gøre dette beregner vi billedet af denne vektor under påvirkning af den lineære operator A:

А(αх + βу) = А((αx) + А(βу) = αАх + βАу = α(λх) + β(λу) = λ(αx) + λ(βу) = λ(αx + βу).

For vektoren z = αх + βу gælder således forholdet Az = λz. Hvis z er en nulvektor, så hører den til £(A,λ). Hvis den ikke er nul, så er den ifølge den beviste sammenhæng en egenværdi med en egenværdi λ og hører igen til mængden £(A, λ).

Det lineære underrum £(A,λ) kaldes nogle gange egenunderrum af den lineære operator *. Det er et særligt tilfælde invariant underrum lineær operator A - et lineært underrum, således at for enhver vektor x ∈ H hører vektoren Ax også til H.

Et invariant underrum af en lineær operator er også det lineære spænd for ethvert system af dets egenvektorer. Et invariant underrum af en lineær operator, der ikke er relateret til dens egenvektorer, er operatørbillede.

- Lineær algebra

Egenvektorer og lineære operator (transformation) værdier

Lad være en lineær transformation af et n-dimensionelt lineært rum V. Ikke-nul vektor \boldsymbol(er) af lineært rum V, der opfylder betingelsen


\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s),


hedder egenvektor lineær transformation \mathcal(A) . Tallet \lambda i lighed (9,5) kaldes transformations egenværdi\mathcal(A) . Egenvektoren siges at svare til (tilhøre) egenværdien \lambda . Hvis rummet V er reelt (komplekst), så er egenværdien \lambda et reelt (komplekst) tal.


Sættet af alle egenværdier af en lineær transformation kaldes dens spektrum.


Lad os forklare geometrisk betydning egenvektorer. En ikke-nul vektor s er en egenvektor af transformationen \mathcal(A) hvis dens billede \mathcal(A) (\fedsymbol(er)) er kollineær til det omvendte billede af \boldsymbol(s) . Med andre ord, hvis \boldsymbol(s) er en egenvektor, så har transformationen \mathcal(A) et endimensionelt invariant underrum. Det modsatte udsagn er også sandt.


Faktisk, lad egenvektoren \boldsymbol(er) svare til en eller anden egenværdi \lambda . Enhver vektor \boldsymbol(v) fra \operatørnavn(Lin)(\fedsymbol(er)) ligner \boldsymbol(v)=\alpha \fedsymbol(er), hvor \alpha er et hvilket som helst tal fra det givne felt. Lad os finde billedet af denne vektor


\mathcal(A)(\boldsymbol(v))= \mathcal(A)(\alpha \boldsymbol(s))= \alpha\cdot \mathcal(A)(\boldsymbol(s))= \alpha\cdot \ lambda\cdot \boldsymbol(er)\i \operatørnavn(Lin) (\boldsymbol(er)).


Derfor, \mathcal(A)(\boldsymbol(v))\i \operatørnavn(Lin)(\boldsymbol(er)) for enhver vektor \fedsymbol(v)\i \operatørnavn(Lin)(\fedsymbol(er)), dvs. underrum \operatørnavn(Lin)(\fedsymbol(er)) invariant under transformationen \mathcal(A) . Subspace dimension \operatørnavn(Lin) (\fedsymbol(er)) er lig med en, da \boldsymbol(er)\ne \boldsymbol(o) a-priory.


Det omvendte udsagn kan bevises ved at ræsonnere i omvendt rækkefølge.

Forholdet mellem egenvektorer af en lineær transformation (operator) og dens matrix

Tidligere har egenvektorer og egenværdier matricer. Husk, at en egenvektor af en kvadratisk matrix A af n. orden er en numerisk søjle, der ikke er nul s=\begin(pmatrix)s_1&\cdots&s_(n)\end(pmatrix)^T, tilfredsstillende betingelse (7.13):


A\cdot s=\lambda\cdot s.


Tallet \lambda i (9.6) kaldes egenværdien af ​​matricen A. Man mente, at egenværdien \lambda og tallene s_i~(i=1,\ldots,n) hører til området komplekse tal.


Disse begreber er relateret til egenvektorer og egenværdier af en lineær transformation.


Sætning 9.3 om egenvektorerne for en lineær transformation og dens matrix. Lade \mathcal(A)\kolon V\til V er en lineær transformation af et n-dimensionelt lineært rum V med basis. Så er egenværdien \lambda og koordinatsøjlen(e) af egenvektoren \boldsymbol(s) for transformationen \mathcal(A) egenværdien og egenvektoren for matricen A for denne transformation defineret med hensyn til basis \boldsymbol(e)_1,\ldots, \boldsymbol(e)_n, dvs.


\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s)\quad \Rightarrow\quad A\cdot s=\lambda\cdot s, Hvor \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n,~ s=\begin(pmatrix)s_1&\cdots& s_n\end(pmatrix)^T.


Det omvendte udsagn er sandt for yderligere betingelser: hvis kolonne s=\begin(pmatrix) s_1&\cdots&s_n\end(pmatrix)^T og tallet \lambda er egenvektoren og egenværdien af ​​matricen A, og tallene s_1,\ldots,s_n,\lambda hører til samme nummerfelt, som det er defineret over lineært rum V , derefter vektoren \boldsymbol(s)=s_1 \boldsymbol(e)_1+ \ldots+s_n \boldsymbol(e)_n og tal \lambda er egenvektoren og egenværdien af ​​den lineære transformation \mathcal(A)\kolon V\til V med matrix A i basis \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n.


Faktisk har betingelse (9.5) i koordinatform formen (9.6), som falder sammen med definitionen (7.13) af matrix-egenvektoren. Tværtimod indebærer lighed (9.6) lighed (9.5), forudsat at vektorerne og \lambda\cdot \boldsymbol(er) defineret, dvs. tal s_1,\ldots,s_n,\lambda tilhører det samme talfelt, som det lineære rum er defineret over.


Husk at finde egenværdierne af en matrix reducerer til at løse dens karakteristiske ligning \Delta_A(\lambda)=0, Hvor \Delta_A(\lambda)=\det(A-\lambda E) er det karakteristiske polynomium i matrix A. Til lineær transformation introducerer vi lignende begreber.


Karakteristisk polynomium af lineær transformation \mathcal(A)\kolon V\til V n-dimensionelt lineært rum er det karakteristiske polynomium af matrix A af denne transformation, fundet med hensyn til enhver basis i rummet V.


Ligningen kaldes karakteristisk ligning for lineær transformation.


Konvertering \mathcal(A)-\lambda\mathcal(E) kaldes karakteristisk for en lineær transformation \mathcal(A)\kolon V\til V.

Bemærkninger 9.4


1. Det karakteristiske polynomium for en lineær transformation afhænger ikke af det grundlag, som transformationsmatrixen findes i.


Faktisk matricerne \mathop(A)\limits_((\boldsymbol(e))) Og \mathop(A)\limits_((\boldsymbol(f))) lineær transformation \mathcal(A) i baser (\boldsymbol(e))= (\boldsymbol(e)_1,\ldots, \boldsymbol(e)_n) Og (\boldsymbol(f))=(\boldsymbol(f)_1,\ldots,\boldsymbol(f)_n) er ifølge (9.4) ens: \nathop(A)\limits_((\boldsymbol(f)))=S^(-1)\mathop(A)\limits_((\boldsymbol(e)))S, hvor S er overgangsmatrixen fra basis (\boldsymbol(e)) til basis (\boldsymbol(f)). Som vist tidligere falder de karakteristiske polynomier af sådanne matricer sammen (se egenskab 3). Derfor kan vi bruge notationen til det karakteristiske polynomium for transformationen \mathcal(A). \Delta_(\mathcal(A))(\lambda) uden at specificere matrixen for denne transformation.


2. Af sætning 9.3 følger det, at enhver kompleks (real, rationel) rod af den karakteristiske ligning er en egenværdi af den lineære transformation \mathcal(A)\kolon V\til V lineært rum V defineret over feltet af komplekse (reelle, rationelle) tal.


3. Af sætning 9.3 følger det, at enhver lineær transformation af et komplekst lineært rum har et endimensionelt invariant underrum, da denne transformation har en egenværdi (se punkt 2), og derfor egenvektorer. Et sådant underrum er for eksempel det lineære spænd for enhver egenvektor. En transformation af et reelt lineært rum har muligvis ikke endimensionelle invariante underrum, hvis alle rødderne af den karakteristiske ligning er komplekse (men ikke reelle).

Sætning 9.4 om invariante underrum af en lineær operator i et reelt rum. Hver lineær transformation af et reelt lineært rum har et endimensionelt eller todimensionalt invariant underrum.


Lad os faktisk sammensætte en lineær transformationsmatrix A \mathcal(A)\kolon V\til V n-dimensionelt reelt lineært rum V på en vilkårlig basis \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n. Elementerne i denne matrix er reelle tal. Derfor er det karakteristiske polynomium \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E) er et polynomium af grad n med reelle koefficienter. Ifølge følge 3 og 4 af algebras grundlæggende sætning kan et sådant polynomium have reelle rødder og par af komplekse konjugerede rødder.


Hvis er en reel rod af den karakteristiske ligning, så er den tilsvarende egenvektor s=\begin(pmatrix)s_1&\cdots&s_n\end(pmatrix)^T matrix A er også reel. Derfor definerer den en egenvektor \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n lineær transformation (se sætning 9.3). I dette tilfælde er der et endimensionelt underrum invariant under \mathcal(A) \operatørnavn(Lin)(\fedsymbol(er))(se den geometriske betydning af egenvektorer).


Hvis \lambda=\alpha\pm\beta i er et par komplekse konjugerede rødder (\beta\ne0), så er egenvektoren s\ne o af matrix A også med komplekse elementer: s=\begin(pmatrix)x_1+y_1i&\cdots& x_n+y_n i \end(pmatrix)^T. Det kan repræsenteres som s=x+yi, hvor x,\,y er reelle kolonner. Ligestilling (9,6) vil så have formen


A\cdot(x+yi)= (\alpha+\beta i)\cdot(x+yi).


Ved at isolere de reelle og imaginære dele får vi systemet

\begin(cases)Ax=\alpha x-\beta y,\\ Ay=\beta x+\alpha y.\end(cases)


Lad os vise, at kolonnerne (x) og (y) er lineært uafhængige. Lad os overveje to tilfælde. Hvis x=o, så følger det af den første ligning (9.7), at y=o, da \beta\ne0. Derefter s=o, hvilket modsiger betingelsen s\ne o. Lad os antage, at x\ne o og x- og y-kolonnerne er proportionale, dvs. der er et reelt tal \gamma således, at y=\gamma x . Så får vi fra system (9.7). \begin(cases)Ax=(\alpha-\beta\gamma)x,\\ \gamma Ax=(\beta-\alpha\gamma)x. \end(cases) Tilføjer vi den første ligning ganget med (-\gamma) til den anden ligning, når vi frem til ligheden [(\beta+\alpha\gamma)-\gamma(\alpha-\beta\gamma)]x=o. Siden x\ne o , så udtrykket i firkantede parenteser er lig med nul, dvs. (\beta+\alpha\gamma)- \gamma(\alpha- \beta\gamma)= \beta(1+\gamma^2)=0. Siden \beta\ne0 , så \gamma^2=-1 . Dette kan ikke ske, da \gamma er et reelt tal. Vi har en modsigelse. Således er x- og y-kolonnerne lineært uafhængige.


Overvej underrummet hvor \boldsymbol(x)= x_1 \boldsymbol(e)_1+\ldots+x_n \boldsymbol(e)_n,~ \boldsymbol(y)= y_1 \boldsymbol(e)_1+\ldots+ y_n \boldsymbol(y)_n. Dette underrum er todimensionelt, da vektorerne \fedsymbol(x),\fedsymbol(y) lineært uafhængige (som vist ovenfor, deres koordinater kolonner x,y lineært uafhængig). Af (9.7) følger det \begin(cases)\mathcal(A)(\boldsymbol(x))=\alpha \boldsymbol(x)-\beta \boldsymbol(y),\\ \mathcal(A)(\boldsymbol(y))=\ beta \boldsymbol(x)+\alpha \boldsymbol(y),\end(cases) de der. billedet af enhver vektor, der hører til \operatørnavn(Lin)(\fedsymbol(x),\fedsymbol(y)), hører også til \operatørnavn(Lin)(\fedsymbol(x),\fedsymbol(y)). Derfor, \operatørnavn(Lin)(\fedsymbol(x),\fedsymbol(y)) er et todimensionelt underrum invariant under transformationen \mathcal(A) , hvilket er, hvad vi skulle bevise.

Find egenvektorer og værdier af en lineær operator (transformation)

At finde egenvektorer og egenværdier for en lineær transformation \mathcal(A)\kolon V\til V reelt lineært rum V, skal følgende trin udføres.


1. Vælg et vilkårligt grundlag \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n lineært rum V og find transformationsmatrixen A \mathcal(A) i denne basis.


2. Komponer det karakteristiske polynomium for transformationen \mathcal(A)\colon\, \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E).


3. Find alle forskellige rigtige rødder \lambda_1,\ldots,\lambda_k karakteristisk ligning \Delta_(\mathcal(A))(\lambda)=0. Komplekse (men ikke reelle) rødder af den karakteristiske ligning bør kasseres (se afsnit 2 i bemærkning 9.4).


4. For roden \lambda=\lambda_1 finde det grundlæggende system \varphi_1, \varphi_2,\ldots,\varphi_(n-r) (A-\lambda_1E)x=o, Hvor r=\operatørnavn(rg)(A-\lambda_1E). For at gøre dette kan du bruge enten en algoritme til at løse et homogent system eller en af ​​metoderne til at finde den fundamentale matrix.


5. Skriv lineært uafhængige egenvektorer af transformationen \mathcal(A) svarende til egenværdien \lambda_1:


\begin(matrix) \boldsymbol(s)_1=\varphi_(1\,1)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,1)\boldsymbol(e)_n,\\ \boldsymbol(s) _2=\varphi_(1\,2)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,2)\boldsymbol(e)_n,\\ \vdots\\ \boldsymbol(s)_(n-r)=\ varphi_(1\,n-r) \boldsymbol(e)_1+ \ldots+\varphi_(n\,n-r)\boldsymbol(e)_n. \end(matrix)


For at finde mængden af ​​alle egenvektorer svarende til egenværdien \lambda_1, danne lineære kombinationer, der ikke er nul


\boldsymbol(s)= C_1 \boldsymbol(s)_1+C_2 \boldsymbol(s)_2+\ldots+ C_(n-r)\boldsymbol(s)_(n-r),


Hvor C_1,C_2,\ldots,C_(n-r)- vilkårlige konstanter, der ikke er lig med nul på samme tid.


Gentag trin 4, 5 for de resterende egenværdier \lambda_2,\ldots,\lambda_k lineær transformation \mathcal(A) .


For at finde egenvektorerne for en lineær transformation af et komplekst lineært rum skal du i trin 3 bestemme alle rødderne af den karakteristiske ligning og, uden at kassere de komplekse rødder, udføre trin 4 og 5 for dem.

Eksempler på egenvektorer af lineære operatorer (transformationer)

1. For nulkonvertering \mathcal(O)\kolon V\til V enhver ikke-nul vektor er en egenvektor svarende til en nul egenværdi \lambda=0, da \mathcal(O)(\boldsymbol(s))=0\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.


2. Til identitetstransformation \mathcal(E)\kolon V\til V enhver vektor, der ikke er nul \fedsymbol(er)\i V er den egen, der svarer til identitetens egenværdi \lambda=1 , da \mathcal(E) (\boldsymbol(s))=1\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.


3. Til central symmetri \mathcal(Z)_(\boldsymbol(o))\kolon V\til V enhver vektor, der ikke er nul \fedsymbol(er)\i V \mathcal(Z)_(\boldsymbol(o)) (\boldsymbol(s))=(-1)\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.


4. For homoteti \mathcal(H)_(\lambda)\kolon V\til V enhver vektor, der ikke er nul \fedsymbol(er)\i V er egenværdien, der svarer til egenværdien \lambda (homotetitetskoefficienten), eftersom \mathcal(H)_(\lambda) (\boldsymbol(\boldsymbol(s)))= \lambda\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.


5. At vende \mathcal(R)_(\varphi)\colon V_2\til V_2 plan (at ) er der ingen egenvektorer, da når den roteres med en vinkel, der ikke er et multiplum af \pi, er billedet af hver ikke-nul vektor ikke-kollineært med det inverse billede. Her betragter vi rotationen af ​​det reelle plan, dvs. todimensionelle vektor rum over feltet af reelle tal.


6. For differentieringsoperatøren \mathcal(D)\colon P_n(\mathbb(R))\to P_n(\mathbb(R)) ethvert polynomium, der ikke er nul, af grad nul (ikke identisk nul) er en egenvektor svarende til nul-egenværdien \lambda=0 , da \mathcal(D)(s(x))=0\cdot s(x) \forall s(x)\equiv \text(const). Ethvert polynomium af ikke-nul grad er ikke en egenvektor, da polynomiet ikke er proportionalt med dets afledte: \mathcal(D)(s(x))=s"(x)\ne \lambda\cdot s(x), da de har forskellige grader.


7. Overvej operatøren \Pi_(L_1)\kolon V\til V projektion på underrummet L_1 parallelt med underrummet L_2. Her V=L_1\plus L_2, \Pi_(L_1)(\boldsymbol(v)_1+ \boldsymbol(v)_2)=\boldsymbol(v)_1 Til \Pi_(L_1)(\boldsymbol(v)_1)=1\cdot \boldsymbol(v)_1, og enhver ikke-nul vektor er en egenvektor svarende til egenværdien \lambda=0 , da \Pi_(L_2)(\boldsymbol(v)_2)=0\cdot \boldsymbol(v)_2 \Pi_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1= \lambda(\boldsymbol(v)_1+\boldsymbol(v)_2) det er muligt enten på eller kl.


8. Overvej operatøren \mathcal(Z)_(L_1)\kolon V\til V refleksioner på underrummet L_1 parallelt med underrummet L_2. Her V=L_1\plus L_2 \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2, Til \boldsymbol(v)=\boldsymbol(v)_1+\boldsymbol(v)_2, \boldsymbol(v)_1\i L_1,~ \boldsymbol(v)_2\i L_2. For denne operator, enhver vektor, der ikke er nul \boldsymbol(v)_1\i L_1 er egenværdien svarende til egenværdien \lambda=1 , da \mathcal(Z)_(L_1) (\boldsymbol(v)_1)= 1\cdot \boldsymbol(v)_1 og enhver vektor, der ikke er nul \boldsymbol(v)_2\i L_2 er egenværdien svarende til egenværdien \lambda=-1 siden \mathcal(Z)_(L_2) (\boldsymbol(v)_2)= (-1)\cdot \boldsymbol(v)_2. Andre vektorer er ikke egenvektorer, da ligheden \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2= \lambda(\boldsymbol()_1+ \boldsymbol(v )_2) muligt enten med \boldsymbol(v)_1=\boldsymbol(o), eller kl \boldsymbol(v)_2= \boldsymbol(o).


9. I rummet V_3 radius vektorer af rummet, plottet fra fast punkt O, overvej at dreje med en vinkel \varphi\ne\pi k,~ k\in\mathbb(Z), omkring \ell-aksen defineret af radiusvektoren \vec(\ell) . Enhver ikke-nul vektor kollineær med vektoren \vec(\ell) er en egen, der svarer til egenværdien \lambda=1 . Denne transformation har ingen andre egenvektorer.

Eksempel 9.1. Find egenværdierne og egenvektorerne for differentieringsoperatoren \mathcal(D)\kolon T_1\til T_1, transformerer rummet af trigonometriske polynomier (frekvens \omega=1):


a) med reelle koefficienter T_1=T_1(\mathbb(R))= \operatørnavn(Lin) (\sin(t),\cos(t));

b) med komplekse koefficienter T_1=T_1(\mathbb(C))= \operatørnavn(Lin) (\sin(t),\cos(t)).


Løsning. 1. Lad os vælge et standardgrundlag e_1(t)=\sin(t),~ e_2(t)=\cos(t) og på dette grundlag komponerer vi matrixen D af operatoren \mathcal(D):


D=\begin(pmatrix)0&-1\\ 1&0 \end(pmatrix)\!.


2. Lad os sammensætte det karakteristiske polynomium for transformationen \mathcal(D)\colon\, \Delta_(\mathcal(D))(\lambda)= \begin(vmatrix)-\lambda&-1\\ 1&-\lambda\end(vmatrix)= \lambda^2+ 1..


3. Den karakteristiske ligning \lambda^2+1=0 har komplekse konjugerede rødder \lambda_1=i,~ \lambda_2=-i. Der er ingen reelle rødder, derfor har transformationen \mathcal(D) af det reelle rum T_1(\mathbb(R)) (tilfælde (a)) ingen egenværdier og derfor ingen egenvektorer. Transformationen \mathcal(D) af det komplekse rum T_1(\mathbb(C)) (tilfælde (b)) har komplekse egenværdier \lambda_1,\,\lambda_2.


4(1). For roden \lambda_1=i finder vi grundsystemet \varphi_1 af løsninger til det homogene ligningssystem (D-\lambda_1 E)x=o:


\begin(pmatrix)-i&-1\\ 1&-i\end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.


Lad os reducere systemmatricen til trinvis udsigt ved at gange den første ligning med (i) og trække den fra den anden ligning:


\begin(pmatrix)-i&-1\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\ \0&0\end(pmatrix)\!.


Vi udtrykker grundvariablen x_1 i form af den frie variabel: x_1=ix_2. Hvis vi antager x_2=1, får vi x_1=i, dvs. \varphi=\begin(pmatrix)i&1 \end(pmatrix)^T.


5(1). Vi nedskriver egenvektoren svarende til egenværdien \lambda_1= i\colon\, s_1(t)=i\cdot\sin(t)+1\cdot\cos(t). Mættet af alle egenvektorer svarende til egenværdien \lambda_1=i danner ikke-nul-funktioner, der er proportionale med s_1(t) .


4(2). For roden \lambda_2=-i finder vi på samme måde grundsystemet (bestående af én vektor) \varphi_2=\begin(pmatrix)-i&1 \end(pmatrix)^T løsninger til et homogent ligningssystem (D-\lambda_2E)x=o:


\begin(pmatrix)i&-1\\ 1&i \end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.


5(2). Vi nedskriver egenvektoren svarende til egenværdien \lambda_2=-i\kolon\, s_2(t)=-i\cdot\sin(t)+1\cdot\cos(t). Mængden af ​​alle egenvektorer svarende til egenværdien \lambda_2=-i danner ikke-nul funktioner proportional med s_2(t) .

se også

Diagonale matricer har den enkleste struktur. Spørgsmålet opstår, om det er muligt at finde et grundlag, hvor den lineære operators matrix ville have en diagonal form. Et sådant grundlag findes.
Lad os få et lineært rum R n og en lineær operator A, der virker i det; i dette tilfælde tager operator A R n ind i sig selv, det vil sige A:R n → R n .

Definition. En ikke-nul vektor kaldes en egenvektor for operatoren A, hvis operatoren A oversættes til en kollineær vektor, dvs. Tallet λ kaldes egenværdien eller egenværdien af ​​operatoren A, svarende til egenvektoren.
Lad os bemærke nogle egenskaber ved egenværdier og egenvektorer.
1. Enhver lineær kombination af egenvektorer operator A svarende til den samme egenværdi λ er en egenvektor med samme egenværdi.
2. Egenvektorer operator A med parvis forskellige egenværdier λ 1 , λ 2 , …, λ m er lineært uafhængige.
3. Hvis egenværdierne λ 1 =λ 2 = λ m = λ, så svarer egenværdien λ til ikke mere end m lineært uafhængige egenvektorer.

Så hvis der er n lineært uafhængige egenvektorer , svarende til forskellige egenværdier λ 1, λ 2, ..., λ n, så er de lineært uafhængige, derfor kan de tages som grundlag for rummet R n. Lad os finde formen af ​​matrixen for den lineære operator A på basis af dens egenvektorer, for hvilke vi vil handle med operatoren A på basisvektorerne: Derefter .
Således har matrixen af ​​den lineære operator A på grundlag af dens egenvektorer en diagonal form, og egenværdierne for operatoren A er langs diagonalen.
Er der et andet grundlag, hvor matricen har en diagonal form? Svaret på dette spørgsmål er givet af følgende sætning.

Sætning. Matrixen for en lineær operator A i basis (i = 1..n) har en diagonal form, hvis og kun hvis alle vektorerne i basis er egenvektorer af operatoren A.

Regel for at finde egenværdier og egenvektorer

Lad en vektor være givet , hvor x 1, x 2, …, x n er vektorens koordinater i forhold til basis og er egenvektoren for den lineære operator A svarende til egenværdien λ, dvs. Dette forhold kan skrives i matrixform

. (*)


Ligning (*) kan betragtes som en ligning til at finde , og det vil sige, at vi er interesserede i ikke-trivielle løsninger, da egenvektoren ikke kan være nul. Det er kendt, at ikke-trivielle løsninger af et homogent system lineære ligninger eksisterer, hvis og kun hvis det(A - λE) = 0. For at λ skal være en egenværdi af operatoren A er det således nødvendigt og tilstrækkeligt, at det(A - λE) = 0.
Hvis ligning (*) er skrevet i detaljer i koordinatform, får vi et system af lineære homogene ligninger:

(1)
Hvor - lineær operatormatrix.

System (1) har en løsning, der ikke er nul, hvis dens determinant D lig med nul


Vi modtog en ligning for at finde egenværdier.
Denne ligning kaldes den karakteristiske ligning, og dens venstre side kaldes det karakteristiske polynomium af matricen (operator) A. Hvis det karakteristiske polynomium ikke har nogen reelle rødder, så har matricen A ingen egenvektorer og kan ikke reduceres til diagonal form.
Lad λ 1, λ 2, …, λ n være de reelle rødder til den karakteristiske ligning, og blandt dem kan der være multipla. Ved at erstatte disse værdier igen med system (1), finder vi egenvektorerne.

Eksempel 12. Den lineære operator A virker i R 3 efter loven, hvor x 1, x 2, .., x n er koordinaterne til vektoren i basis , , . Find egenværdierne og egenvektorerne for denne operator.
Løsning. Vi bygger matrixen for denne operatør:
.
Vi opretter et system til bestemmelse af koordinaterne for egenvektorer:

Vi sammensætter en karakteristisk ligning og løser den:

.
λ 1,2 = -1, λ 3 = 3.
Ved at indsætte λ = -1 i systemet har vi:
eller
Fordi , så er der to afhængige variable og en fri variabel.
Lad x 1 være en fri ukendt, så Vi løser dette system på enhver måde og finder fælles beslutning af dette system: Det grundlæggende system af løsninger består af én løsning, da n - r = 3 - 2 = 1.
Sættet af egenvektorer svarende til egenværdien λ = -1 har formen: , hvor x 1 er et hvilket som helst andet tal end nul. Lad os vælge en vektor fra dette sæt, for eksempel ved at sætte x 1 = 1: .
På samme måde finder vi egenvektoren svarende til egenværdien λ = 3: .
I rummet R 3 består basis af tre lineært uafhængige vektorer, men vi modtog kun to lineært uafhængige egenvektorer, hvorfra grundlaget i R 3 ikke kan sammensættes. Derfor kan vi ikke reducere matrixen A af en lineær operator til diagonal form.

Eksempel 13. Givet en matrix .
1. Bevis at vektoren er en egenvektor af matrix A. Find egenværdien svarende til denne egenvektor.
2. Find et grundlag, hvor matrix A har en diagonal form.
Løsning.
1. Hvis , så er en egenvektor

.
Vektor (1, 8, -1) er en egenvektor. Egenværdi λ = -1.
Matrixen har en diagonal form i en basis bestående af egenvektorer. En af dem er berømt. Lad os finde resten.
Vi leder efter egenvektorer fra systemet:

Karakteristisk ligning: ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ2 - 1) = 0
λ1 = -3, λ2 = 1, λ3 = -1.
Lad os finde egenvektoren svarende til egenværdien λ = -3:

Rangeringen af ​​matrixen for dette system er to og lig med antallet af ukendte, så dette system har kun en nulløsning x 1 = x 3 = 0. x 2 her kan være alt andet end nul, for eksempel x 2 = 1. Vektoren (0 ,1,0) er således en egenvektor svarende til λ = -3. Lad os tjekke:
.
Hvis λ = 1, får vi systemet
Rangen af ​​matrixen er to. Vi krydser den sidste ligning over.
Lad x 3 være en gratis ukendt. Derefter x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
Hvis vi antager x 3 = 1, har vi (-3,-9,1) - en egenvektor svarende til egenværdien λ = 1. Tjek:

.
Da egenværdierne er reelle og distinkte, er vektorerne, der svarer til dem, lineært uafhængige, så de kan tages som basis i R 3 . Således i grundlaget , , matrix A har formen:
.
Ikke hver matrix af en lineær operator A:R n → R n kan reduceres til diagonal form, da der for nogle lineære operatorer kan være mindre end n lineære uafhængige egenvektorer. Men hvis matricen er symmetrisk, svarer roden af ​​den karakteristiske ligning af multiplicitet m til nøjagtigt m lineært uafhængige vektorer.

Definition. En symmetrisk matrix kaldes kvadratisk matrix, hvor de elementer, der er symmetriske om hoveddiagonalen, er lige store, det vil sige, hvor .
Noter. 1. Alle egenværdier af en symmetrisk matrix er reelle.
2. Egenvektorerne af en symmetrisk matrix svarende til parvis forskellige egenværdier er ortogonale.
Som en af ​​de mange anvendelser af det undersøgte apparat betragter vi problemet med at bestemme typen af ​​en andenordenskurve.

Vektor X ≠ 0 kaldes egenvektor lineær operator med matrix A, hvis der er et tal sådan at AX =X.

I dette tilfælde kaldes nummeret fi egenværdi operator (matrix A) svarende til vektoren x.

Med andre ord er en egenvektor en vektor, der under påvirkning af en lineær operator transformerer til en kollineær vektor, dvs. bare gange med et eller andet tal. I modsætning hertil er ukorrekte vektorer mere komplekse at transformere.

Lad os nedskrive definitionen af ​​en egenvektor i form af et ligningssystem:

Lad os flytte alle termerne til venstre side:

Sidstnævnte system kan skrives i matrixform som følger:

(A - E)X = O

Det resulterende system har altid en nulløsning X = O. Sådanne systemer, hvor alle frie led er lig med nul, kaldes homogen. Hvis matrixen af ​​et sådant system er kvadratisk, og dets determinant ikke er lig med nul, så vil vi ved hjælp af Cramers formler altid få en unik løsning - nul. Det kan bevises, at et system har ikke-nul løsninger, hvis og kun hvis determinanten af ​​denne matrix er lig med nul, dvs.

|A - E| = = 0

Denne ligning med en ukendt kaldes karakteristisk ligning(karakteristisk polynomium) matrix A (lineær operator).

Det kan bevises, at det karakteristiske polynomium for en lineær operator ikke afhænger af valget af grundlag.

Lad os for eksempel finde egenværdierne og egenvektorerne for den lineære operator defineret af matrixen A = .

For at gøre dette, lad os oprette en karakteristisk ligning |A - E| = = (1 -) 2 – 36 = 1 – 2+ 2 - 36 = 2 – 2- 35; D = 4 + 140 = 144; egenværdier 1 = (2 - 12)/2 = -5; 2 = (2 + 12)/2 = 7.

For at finde egenvektorer løser vi to ligningssystemer

(A + 5E)X = O

(A - 7E)X = O

For den første af dem tager den udvidede matrix formen

,

hvorfra x 2 = c, x 1 + (2/3) c = 0; x 1 = -(2/3)s, dvs. X (1) = (-(2/3)s; s).

For den anden af ​​dem tager den udvidede matrix formen

,

hvorfra x2 = c1, xl - (2/3)c1 = 0; x 1 = (2/3)s 1, dvs. X (2) = ((2/3)s 1; s 1).

Egenvektorerne for denne lineære operator er således alle vektorer af formen (-(2/3)с; с) med egenværdi (-5) og alle vektorer af formen ((2/3)с 1 ; с 1) med egenværdi 7 .

Det kan bevises, at matrixen for operatoren A i grundlaget bestående af dens egenvektorer er diagonal og har formen:

,

hvor  i er egenværdierne af denne matrix.

Det omvendte er også sandt: hvis matrix A i en eller anden basis er diagonal, så vil alle vektorer af denne basis være egenvektorer af denne matrix.

Det kan også bevises, at hvis en lineær operator har n parvis distinkte egenværdier, så er de tilsvarende egenvektorer lineært uafhængige, og matrixen af ​​denne operator i den tilsvarende basis har en diagonal form.