Aflați valoarea operatorului pe vector. Vectorii proprii ai unui operator liniar

Lăsa - transformare liniară spațiu liniar n-dimensional V. Un vector diferit de zero \boldsymbol(s) al spațiului liniar V care satisface condiția

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s),

numit vector propriu al transformării liniare\mathcal(A) . Numărul \lambda în egalitate (9.5) se numește valoare proprie transformare\mathcal(A) . Se spune că vectorul propriu corespunde (aparține) valorii proprii \lambda . Dacă spațiul V este real (complex), atunci valoarea proprie \lambda este un număr real (complex).

Setul tuturor valorilor proprii ale unei transformări liniare se numește ei spectru.

Să explicăm semnificația geometrică a vectorilor proprii. Un vector diferit de zero s este un vector propriu al transformării \mathcal(A) dacă imaginea sa \mathcal(A) (\boldsymbol(s)) este coliniar cu imaginea inversă a \boldsymbol(s) . Cu alte cuvinte, dacă \boldsymbol(s) este un vector propriu, atunci transformarea \mathcal(A) are un subspațiu invariant unidimensional. Afirmația opusă este de asemenea adevărată.

Într-adevăr, fie vectorul propriu \boldsymbol(s) să corespundă unei valori proprii \lambda . Orice vector \boldsymbol(v) din \operatorname(Lin)(\boldsymbol(s)) se pare ca \boldsymbol(v)=\alpha \boldsymbol(s), unde \alpha este orice număr din câmpul dat. Să găsim imaginea acestui vector

\mathcal(A)(\boldsymbol(v))= \mathcal(A)(\alpha \boldsymbol(s))= \alpha\cdot \mathcal(A)(\boldsymbol(s))= \alpha\cdot \ lambda\cdot \boldsymbol(s)\in \operatorname(Lin) (\boldsymbol(s)).

Prin urmare, \mathcal(A)(\boldsymbol(v))\in \operatorname(Lin)(\boldsymbol(s)) pentru orice vector \boldsymbol(v)\in \operatorname(Lin)(\boldsymbol(s)), adică subspațiu \operatorname(Lin)(\boldsymbol(s)) invariant sub transformarea \mathcal(A) . Dimensiunea subspațială \operatorname(Lin) (\boldsymbol(s)) este egal cu unu, deoarece \boldsymbol(s)\ne \boldsymbol(o) un-prioriu.

Afirmația inversă este dovedită prin raționament în ordine inversă.

Relația dintre vectorii proprii ai unei transformări liniare (operator) și matricea acesteia

Anterior, au fost luați în considerare vectorii proprii și valorile proprii ale unei matrice. Reamintim că vectorul propriu al unei matrice pătrate A de ordinul al n-lea se numește diferit de zero coloană numerică s=\begin(pmatrix)s_1&\cdots&s_(n)\end(pmatrix)^T, condiție satisfăcătoare (7.13):

A\cdot s=\lambda\cdot s.

Numărul \lambda din (9.6) se numește valoarea proprie a matricei A. Se credea că valoarea proprie \lambda și numerele s_i~(i=1,\ldots,n) aparțin domeniului numerelor complexe.

Aceste concepte sunt legate de vectorii proprii și valorile proprii ale unei transformări liniare.

Teorema 9.3 privind vectorii proprii ai unei transformări liniare și matricea acesteia. Lăsa \mathcal(A)\colon V\la V este o transformare liniară a unui spațiu liniar n-dimensional V cu bază. Atunci valoarea proprie \lambda și coloana (e) de coordonate a vectorului propriu \boldsymbol(s) al transformării \mathcal(A) sunt valoarea proprie și vectorul propriu al matricei A a acestei transformări definite în raport cu baza \boldsymbol(e)_1,\ldots, \boldsymbol(e)_n, adică

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s)\quad \Rightarrow\quad A\cdot s=\lambda\cdot s, Unde \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n,~ s=\begin(pmatrix)s_1&\cdots& s_n\end(pmatrix)^T.

Afirmația inversă este adevărată pentru conditii suplimentare: dacă coloană s=\begin(pmatrix) s_1&\cdots&s_n\end(pmatrix)^T iar numărul \lambda sunt vectorul propriu și valoarea proprie a matricei A, iar numerele s_1,\ldots,s_n,\lambda aparțin aceluiași câmp numeric peste care este definit spațiul liniar V, apoi vectorul \boldsymbol(s)=s_1 \boldsymbol(e)_1+ \ldots+s_n \boldsymbol(e)_nși numărul \lambda sunt vectorul propriu și valoarea proprie a transformării liniare \mathcal(A)\colon V\la V cu matricea A în bază \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n.

De fapt, condiția (9.5) în formă de coordonate are forma (9.6), care coincide cu definiția (7.13) a vectorului propriu matriceal. Dimpotrivă, egalitatea (9.6) implică egalitatea (9.5) cu condiția ca vectorii și \lambda\cdot \boldsymbol(s) definite, adică numere s_1,\ldots,s_n,\lambda aparțin aceluiași câmp numeric peste care este definit spațiul liniar.

Amintiți-vă că găsirea valorilor proprii ale unei matrice se reduce la rezolvarea ecuației sale caracteristice \Delta_A(\lambda)=0, Unde \Delta_A(\lambda)=\det(A-\lambda E) este polinomul caracteristic al matricei A. Pentru transformarea liniară introducem concepte similare.

Polinom caracteristic al transformării liniare \mathcal(A)\colon V\la V Spațiul liniar n-dimensional este polinomul caracteristic al matricei A a acestei transformări, găsit în raport cu orice bază a spațiului V.

Ecuația se numește ecuația caracteristică a transformării liniare.

Conversie \mathcal(A)-\lambda\mathcal(E) numită caracteristică a unei transformări liniare \mathcal(A)\colon V\la V.

Note 9.4

1. Polinomul caracteristic al unei transformări liniare nu depinde de baza în care se găsește matricea de transformare.

De fapt, matricele \mathop(A)\limits_((\boldsymbol(e)))Și \mathop(A)\limits_((\boldsymbol(f))) transformare liniară \mathcal(A) în baze (\boldsymbol(e))= (\boldsymbol(e)_1,\ldots, \boldsymbol(e)_n)Și (\boldsymbol(f))=(\boldsymbol(f)_1,\ldots,\boldsymbol(f)_n) sunt, conform (9.4), similare: \nathop(A)\limits_((\boldsymbol(f)))=S^(-1)\mathop(A)\limits_((\boldsymbol(e)))S, unde S este matricea de tranziție de la bază (\boldsymbol(e)) la bază (\boldsymbol(f)). După cum sa arătat mai devreme, polinoamele caracteristice ale unor astfel de matrici coincid (a se vedea proprietatea 3). Prin urmare, pentru polinomul caracteristic al transformării \mathcal(A) putem folosi notația \Delta_(\mathcal(A))(\lambda), fără a preciza matricea acestei transformări.

2. Din teorema 9.3 rezultă că orice rădăcină complexă (reala, rațională) a ecuației caracteristice este o valoare proprie a transformării liniare \mathcal(A)\colon V\la V spațiu liniar V definit peste câmpul numerelor complexe (reale, raționale).

3. Din teorema 9.3 rezultă că orice transformare liniară a unui spațiu liniar complex are un subspațiu invariant unidimensional, deoarece această transformare are o valoare proprie (vezi punctul 2), și deci vectori proprii. Un astfel de subspațiu este, de exemplu, intervalul liniar al oricărui vector propriu. O transformare a unui spațiu liniar real poate să nu aibă subspații invariante unidimensionale dacă toate rădăcinile ecuației caracteristice sunt complexe (dar nu reale).

Teorema 9.4 asupra subspațiilor invariante ale unui operator liniar într-un spațiu real. Fiecare transformare liniară a unui spațiu liniar real are un subspațiu invariant unidimensional sau bidimensional.

Într-adevăr, să compunem o matrice de transformare liniară A \mathcal(A)\colon V\la V spațiu liniar real n-dimensional V într-o bază arbitrară \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n. Elementele acestei matrice sunt numere reale. Prin urmare, polinomul caracteristic \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E) este un polinom de grad n cu coeficienți reali. Conform Corolarelor 3 și 4 ale teoremei fundamentale ale algebrei, un astfel de polinom poate avea rădăcini reale și perechi de rădăcini conjugate complexe.

Dacă \lambda=\lambda_1 este o rădăcină reală a ecuației caracteristice, atunci vectorul propriu corespunzător s=\begin(pmatrix)s_1&\cdots&s_n\end(pmatrix)^T matricea A este de asemenea reală. Prin urmare, definește un vector propriu \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n transformare liniară (vezi Teorema 9.3). În acest caz, există un subspațiu invariant unidimensional sub \mathcal(A) \operatorname(Lin)(\boldsymbol(s))(vezi semnificația geometrică a vectorilor proprii).

Dacă \lambda=\alpha\pm\beta i este o pereche de rădăcini conjugate complexe (\beta\ne0), atunci vectorul propriu s\ne o al matricei A are și elemente complexe: s=\begin(pmatrix)x_1+y_1i&\cdots& x_n+y_n i \end(pmatrix)^T. Poate fi reprezentat ca s=x+yi , unde x,\,y sunt coloane reale. Egalitatea (9.6) va avea apoi forma

A\cdot(x+yi)= (\alpha+\beta i)\cdot(x+yi).


Izolând părțile reale și imaginare, obținem sistemul

\begin(cases)Ax=\alpha x-\beta y,\\ Ay=\beta x+\alpha y.\end(cases)

Să arătăm că coloanele (x) și (y) sunt liniar independente. Să luăm în considerare două cazuri. Dacă x=o, atunci din prima ecuație (9.7) rezultă că y=o, deoarece \beta\ne0. Atunci s=o, care contrazice condiția s\ne o. Să presupunem că x\ne o și coloanele x și y sunt proporționale, adică. exista asa ceva numar real\gamma că y=\gamma x . Apoi din sistemul (9.7) obținem \begin(cases)Ax=(\alpha-\beta\gamma)x,\\ \gamma Ax=(\beta-\alpha\gamma)x. \end(cazuri) Adăugând prima ecuație înmulțită cu (-\gamma) la a doua ecuație, ajungem la egalitate [(\beta+\alpha\gamma)-\gamma(\alpha-\beta\gamma)]x=o. Deoarece x\ne o , expresia dintre paranteze pătrate este egală cu zero, adică. (\beta+\alpha\gamma)- \gamma(\alpha- \beta\gamma)= \beta(1+\gamma^2)=0. Deoarece \beta\ne0 , atunci \gamma^2=-1 . Acest lucru nu se poate întâmpla deoarece \gamma este un număr real. Avem o contradicție. Astfel, coloanele x și y sunt liniar independente.

Luați în considerare subspațiul unde \boldsymbol(x)= x_1 \boldsymbol(e)_1+\ldots+x_n \boldsymbol(e)_n,~ \boldsymbol(y)= y_1 \boldsymbol(e)_1+\ldots+ y_n \boldsymbol(y)_n. Acest subspațiu este bidimensional, deoarece vectorii \boldsymbol(x),\boldsymbol(y) sunt liniar independente (după cum se arată mai sus, coloanele lor de coordonate x,y sunt liniar independente). Din (9.7) rezultă că \begin(cases)\mathcal(A)(\boldsymbol(x))=\alpha \boldsymbol(x)-\beta \boldsymbol(y),\\ \mathcal(A)(\boldsymbol(y))=\ beta \boldsymbol(x)+\alpha \boldsymbol(y),\end(cases) acestea. imaginea oricărui vector aparținând \operatorname(Lin)(\boldsymbol(x),\boldsymbol(y)), aparține și \operatorname(Lin)(\boldsymbol(x),\boldsymbol(y)). Prin urmare, \operatorname(Lin)(\boldsymbol(x),\boldsymbol(y)) este un invariant subspațial bidimensional sub transformarea \mathcal(A) , care este ceea ce trebuia să demonstrăm.

Găsirea vectorilor proprii și a valorilor unui operator liniar (transformare)

Pentru a găsi vectori proprii și valori proprii ale unei transformări liniare \mathcal(A)\colon V\la V spaţiul liniar real V, trebuie efectuate următorii paşi.

1. Alegeți o bază arbitrară \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n spațiu liniar V și găsiți matricea de transformare A \mathcal(A) în această bază.

2. Compuneți polinomul caracteristic transformării \mathcal(A)\colon\, \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E).

3. Găsiți toate rădăcinile reale diferite \lambda_1,\ldots,\lambda_k ecuație caracteristică \Delta_(\mathcal(A))(\lambda)=0. Rădăcinile complexe (dar nu reale) ale ecuației caracteristice trebuie eliminate (a se vedea paragraful 2 din observațiile 9.4).

4. Pentru rădăcina \lambda=\lambda_1 găsiți sistemul fundamental \varphi_1, \varphi_2,\ldots,\varphi_(n-r) soluții la un sistem omogen de ecuații (A-\lambda_1E)x=o , unde r=\operatorname(rg)(A-\lambda_1E). Pentru a face acest lucru, puteți utiliza fie un algoritm pentru rezolvarea unui sistem omogen, fie una dintre metodele de găsire a matricei fundamentale.

5. Scrieți vectori proprii liniar independenți ai transformării \mathcal(A) corespunzători valorii proprii \lambda_1:

\begin(matrix) \boldsymbol(s)_1=\varphi_(1\,1)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,1)\boldsymbol(e)_n,\\ \boldsymbol(s) _2=\varphi_(1\,2)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,2)\boldsymbol(e)_n,\\ \vdots\\ \boldsymbol(s)_(n-r)=\ varphi_(1\,n-r) \boldsymbol(e)_1+ \ldots+\varphi_(n\,n-r)\boldsymbol(e)_n. \end(matrice)

Pentru a găsi mulțimea tuturor vectorilor proprii corespunzători valorii proprii \lambda_1, formați combinații liniare diferite de zero

\boldsymbol(s)= C_1 \boldsymbol(s)_1+C_2 \boldsymbol(s)_2+\ldots+ C_(n-r)\boldsymbol(s)_(n-r),

Unde C_1,C_2,\ldots,C_(n-r)- constante arbitrare, nu egal cu zero simultan.

Repetați pașii 4, 5 pentru valorile proprii rămase \lambda_2,\ldots,\lambda_k transformare liniară \mathcal(A) .

Pentru a găsi vectorii proprii ai unei transformări liniare a unui spațiu liniar complex, trebuie să determinați în pasul 3 toate rădăcinile ecuației caracteristice și, fără a elimina rădăcinile complexe, efectuați pașii 4 și 5 pentru ele.

Exemple de vectori proprii ai operatorilor liniari (transformări)

1. Pentru conversie zero \mathcal(O)\colon V\la V orice vector diferit de zero este un vector propriu corespunzător unei valori proprii zero \lambda=0 , deoarece \mathcal(O)(\boldsymbol(s))=0\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

2. Pentru transformarea identităţii \mathcal(E)\colon V\la V orice vector diferit de zero \boldsymbol(s)\în V este valoarea proprie corespunzătoare valorii proprii de identitate \lambda=1 , deoarece \mathcal(E) (\boldsymbol(s))=1\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

3. Pentru simetrie centrală \mathcal(Z)_(\boldsymbol(o))\colon V\la V orice vector diferit de zero \boldsymbol(s)\în V \mathcal(Z)_(\boldsymbol(o)) (\boldsymbol(s))=(-1)\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

4. Pentru homotezie \mathcal(H)_(\lambda)\colon V\to V orice vector diferit de zero \boldsymbol(s)\în V este valoarea proprie corespunzătoare valorii proprii \lambda (coeficientul de homotezie), deoarece \mathcal(H)_(\lambda) (\boldsymbol(\boldsymbol(s)))= \lambda\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\în V.

5. A se întoarce \mathcal(R)_(\varphi)\colon V_2\to V_2 plan (la ) nu există vectori proprii, deoarece atunci când este rotită cu un unghi nu este un multiplu de \pi, imaginea fiecărui vector diferit de zero este necoliniară cu imaginea inversă. Aici luăm în considerare rotația planului real, i.e. spațiu vectorial bidimensional peste câmpul numerelor reale.

6. Pentru operatorul de diferențiere \mathcal(D)\colon P_n(\mathbb(R))\to P_n(\mathbb(R)) orice polinom diferit de zero de grad zero (nu identic zero) este un vector propriu corespunzător valorii proprii zero \lambda=0 , deoarece \mathcal(D)(s(x))=0\cdot s(x) \forall s(x)\equiv \text(const). Orice polinom de grad diferit de zero nu este un vector propriu, deoarece polinomul nu este proporțional cu derivata sa: \mathcal(D)(s(x))=s"(x)\ne \lambda\cdot s(x), deoarece au grade diferite.

7. Luați în considerare operatorul \Pi_(L_1)\colon V\to V proiecție pe subspațiul L_1 paralel cu subspațiul L_2. Aici V=L_1\oplus L_2, \Pi_(L_1)(\boldsymbol(v)_1+ \boldsymbol(v)_2)=\boldsymbol(v)_1 Pentru \Pi_(L_1)(\boldsymbol(v)_1)=1\cdot \boldsymbol(v)_1, iar orice vector diferit de zero este un vector propriu corespunzător valorii proprii \lambda=0 , deoarece \Pi_(L_2)(\boldsymbol(v)_2)=0\cdot \boldsymbol(v)_2 \Pi_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1= \lambda(\boldsymbol(v)_1+\boldsymbol(v)_2) este posibil fie la sau la .

8. Luați în considerare operatorul \mathcal(Z)_(L_1)\colon V\la V reflexii asupra subspațiului L_1 paralel cu subspațiul L_2. Aici V=L_1\oplus L_2 \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2, Pentru \boldsymbol(v)=\boldsymbol(v)_1+\boldsymbol(v)_2, \boldsymbol(v)_1\in L_1,~ \boldsymbol(v)_2\in L_2. Pentru acest operator, orice vector diferit de zero \boldsymbol(v)_1\in L_1 este valoarea proprie corespunzătoare valorii proprii \lambda=1 , deoarece \mathcal(Z)_(L_1) (\boldsymbol(v)_1)= 1\cdot \boldsymbol(v)_1, și orice vector diferit de zero \boldsymbol(v)_2\in L_2 este valoarea proprie corespunzătoare valorii proprii \lambda=-1 deoarece \mathcal(Z)_(L_2) (\boldsymbol(v)_2)= (-1)\cdot \boldsymbol(v)_2. Alți vectori nu sunt vectori proprii, deoarece egalitatea \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2= \lambda(\boldsymbol()_1+ \boldsymbol(v) )_2) posibil fie cu \boldsymbol(v)_1=\boldsymbol(o), sau la \boldsymbol(v)_2= \boldsymbol(o).

9. În spațiul V_3 al vectorilor cu rază ai spațiului, reprezentați dintr-un punct fix O, se consideră o rotație printr-un unghi \varphi\ne\pi k,~ k\in\mathbb(Z), în jurul axei \ell definită de vectorul rază \vec(\ell) . Orice vector diferit de zero coliniar cu vectorul \vec(\ell) este un propriu corespunzătoare valorii proprii \lambda=1 . Această transformare nu are alți vectori proprii.

Exemplul 9.1. Găsiți valorile proprii și vectorii proprii ai operatorului de diferențiere \mathcal(D)\colon T_1\to T_1, transformând spațiul polinoamelor trigonometrice (frecvența \omega=1):

a) cu coeficienţi reali T_1=T_1(\mathbb(R))=\operatorname(Lin) (\sin(t),\cos(t));

b) cu coeficienţi complecşi T_1=T_1(\mathbb(C))=\operatorname(Lin) (\sin(t),\cos(t)).

Soluţie. 1. Să alegem o bază standard e_1(t)=\sin(t),~ e_2(t)=\cos(t) iar pe această bază compunem matricea D a operatorului \mathcal(D):

D=\begin(pmatrix)0&-1\\ 1&0 \end(pmatrix)\!.

2. Să compunem polinomul caracteristic transformării \mathcal(D)\colon\, \Delta_(\mathcal(D))(\lambda)= \begin(vmatrix)-\lambda&-1\\ 1&-\lambda\end(vmatrix)= \lambda^2+ 1..

3. Ecuația caracteristică \lambda^2+1=0 are rădăcini complexe conjugate \lambda_1=i,~ \lambda_2=-i. Nu există rădăcini reale, prin urmare transformarea \mathcal(D) a spațiului real T_1(\mathbb(R)) (cazul (a)) nu are valori proprii și, prin urmare, nu are vectori proprii. Transformarea \mathcal(D) a spațiului complex T_1(\mathbb(C)) (cazul (b)) are valori proprii complexe \lambda_1,\,\lambda_2.

4(1). Pentru rădăcina \lambda_1=i găsim sistemul fundamental \varphi_1 de soluții la sistemul omogen de ecuații (D-\lambda_1 E)x=o:

\begin(pmatrix)-i&-1\\ 1&-i\end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

Să reducem matricea sistemului la forma treptat înmulțind prima ecuație cu (i) și scăzând-o din a doua ecuație:

\begin(pmatrix)-i&-1\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\ \0&0\end(pmatrix)\!.

Exprimăm variabila de bază x_1 în termenii variabilei libere: x_1=ix_2. Presupunând x_2=1, obținem x_1=i, adică. \varphi=\begin(pmatrix)i&1 \end(pmatrix)^T.

5(1). Notăm vectorul propriu corespunzător valorii proprii \lambda_1= i\colon\, s_1(t)=i\cdot\sin(t)+1\cdot\cos(t). Mulțimea tuturor vectorilor proprii corespunzători valorii proprii \lambda_1=i formează funcții non-nule proporționale cu s_1(t) .

4(2). Pentru rădăcina \lambda_2=-i găsim în mod similar sistemul fundamental (constând dintr-un vector) \varphi_2=\begin(pmatrix)-i&1 \end(pmatrix)^T soluții la un sistem omogen de ecuații (D-\lambda_2E)x=o:

\begin(pmatrix)i&-1\\ 1&i \end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

5(2). Notăm vectorul propriu corespunzător valorii proprii \lambda_2=-i\colon\, s_2(t)=-i\cdot\sin(t)+1\cdot\cos(t). Mulțimea tuturor vectorilor proprii corespunzători valorii proprii \lambda_2=-i formează funcții non-nule proporționale cu s_2(t) .


Vezi și Proprietăți ale vectorilor proprii ai operatorilor liniari (transformări) Javascript este dezactivat în browserul dvs.
Pentru a efectua calcule, trebuie să activați controalele ActiveX!

Cel mai simplu operator liniar este înmulțirea unui vector cu un număr \(\lambda\). Acest operator pur și simplu întinde toți vectorii cu \(\lambda\) ori. Forma sa matriceală în orice bază este \(diag(\lambda ,\lambda ,...,\lambda)\). Pentru certitudine, fixăm baza \(\(e\)\) în spațiul vectorial \(\mathit(L)\) și luăm în considerare un operator liniar cu o formă de matrice diagonală în această bază, \(\alpha = diag( \lambda _1,\lambda _2,...,\lambda _n)\). Acest operator, conform definiției formei matriceale, se întinde \(e_k\) cu \(\lambda _k\) ori, i.e. \(Ae_k=\lambda _ke_k\) pentru toate \(k=1,2,...,n\). Este convenabil să lucrați cu matrici diagonale; calculul funcțional este simplu de construit pentru ele: pentru orice funcție \(f(x)\) putem pune \(f(diag(\lambda _1,\lambda _2,..., \lambda _n))= diag(f(\lambda _1),f(\lambda _2),...,f(\lambda _n))\). Astfel, apare o întrebare firească: să existe un operator liniar \(A\), este posibil să alegeți o astfel de bază în spațiul vectorial astfel încât forma matriceală a operatorului \(A\) să fie diagonală în această bază? Această întrebare duce la definirea valorilor proprii și a vectorilor proprii.

Definiție. Fie că pentru operatorul liniar \(A\) există un vector diferit de zero \(u\) și un număr \(\lambda \) astfel încât \[ Au=\lambda \cdot u. \quad \quad(59) \] Apoi se numește vectorul \(u\). vector propriu operatorul \(A\), iar numărul \(\lambda \) - cel corespunzător valoare proprie operator \(A\). Se numește mulțimea tuturor valorilor proprii spectrul operatorului liniar \(A\).

Apare o problemă firească: găsiți pentru un operator liniar dat valorile sale proprii și vectorii proprii corespunzători. Această problemă se numește problema de spectru a unui operator liniar.

Ecuația valorii proprii

Pentru certitudine, fixăm baza în spațiul vectorial, adică. Vom presupune că este dat o dată pentru totdeauna. Apoi, după cum sa discutat mai sus, luarea în considerare a operatorilor liniari poate fi redusă la luarea în considerare a matricelor - forme matriceale ale operatorilor liniari. Rescriem ecuația (59) sub forma \[ (\alpha -\lambda E)u=0. \] Aici \(E\) este matricea de identitate, iar \(\alpha\) este forma matriceală a operatorului nostru liniar \(A\). Această relație poate fi interpretată ca un sistem \(n\) ecuatii lineare pentru \(n\) necunoscute - coordonatele vectorului \(u\). Mai mult, acesta este un sistem omogen de ecuații și ar trebui să-l găsim nebanală soluţie. Anterior, a fost dată o condiție pentru existența unei astfel de soluții - pentru aceasta este necesar și suficient ca rangul sistemului să fie mai mic decât numărul de necunoscute. Aceasta implică ecuația pentru valorile proprii: \[ det(\alpha -\lambda E)=0. \quad \quad(60) \]

Definiție. Ecuația (60) se numește ecuație caracteristică pentru operatorul liniar \(A\).

Să descriem proprietățile acestei ecuații și soluțiile sale. Dacă o scriem în mod explicit, obținem o ecuație de forma \[ (-1)^n\lambda ^n+...+det(A)=0. \quad \quad(61) \] În partea stângă există un polinom în variabila \(\lambda \). Astfel de ecuații se numesc algebrice de grad \(n\). Să dăm informatie necesara despre aceste ecuații.

Ajutor despre ecuațiile algebrice.

Teorema. Fie ca toate valorile proprii ale operatorului liniar \(A\) să fie prime. Apoi setul de vectori proprii corespunzători acestor valori proprii formează baza spațiului vectorial.

Din condițiile teoremei rezultă că toate valorile proprii ale operatorului \(A\) sunt diferite. Să presupunem că mulțimea de vectori proprii este dependentă liniar, astfel încât există constante \(c_1,c_2,...,c_n\), care nu sunt toate zero, îndeplinind condiția: \[ \sum_(k=1)^ nc_ku_k=0. \quad \quad(62) \]

Printre astfel de formule, să considerăm una care include numărul minim de termeni și să acționăm asupra acesteia cu operatorul \(A\). Datorită liniarității sale, obținem: \[ A\left (\sum_(k=1)^nc_ku_k \right)=\sum_(k=1)^nc_kAu_k=\sum_(k=1)^nc_k\lambda _ku_k= 0. \quad \quad(63) \]

Fie, pentru certitudine, \(c_1 \neq 0\). Înmulțind (62) cu \(\lambda _1\) și scăzând din (63), obținem o relație de forma (62), dar care conține un termen mai puțin. Contradicția demonstrează teorema.

Deci, în condițiile teoremei, apare o bază asociată cu un operator liniar dat - baza vectorilor proprii. Să luăm în considerare forma matricei a operatorului pe o astfel de bază. După cum sa menționat mai sus, a \(k\)-a coloană a acestei matrice este descompunerea vectorului \(Au_k\) față de bază. Totuși, prin definiție, \(Au_k=\lambda _ku_k\), deci această expansiune (ceea ce este scris în partea dreaptă) conține un singur termen și matricea construită se dovedește a fi diagonală. Ca rezultat, constatăm că, în condițiile teoremei, forma matriceală a operatorului în baza vectorilor proprii este egală cu \(diag(\lambda _1,\lambda _2,...,\lambda _n)\ ). Prin urmare, dacă este necesar să se dezvolte calculul funcțional pentru un operator liniar, este rezonabil să se lucreze pe baza vectorilor proprii.

Dacă printre valorile proprii ale unui operator liniar există multipli, descrierea situației devine mai complicată și poate include așa-numitele celule Jordan. Referim cititorul la tutoriale mai avansate pentru situații relevante.

Matricele diagonale au cea mai simplă structură. Se pune întrebarea dacă este posibil să se găsească o bază în care matricea operatorului liniar să aibă o formă diagonală. O astfel de bază există.
Să fie dat un spațiu liniar R n și un operator liniar A care acționează în el; în acest caz, operatorul A ia R n în sine, adică A:R n → R n .

Definiție. Un vector diferit de zero se numește vector propriu al operatorului A dacă operatorul A se traduce într-un vector coliniar, adică. Numărul λ se numește valoare proprie sau valoare proprie a operatorului A, corespunzătoare vectorului propriu.
Să notăm câteva proprietăți ale valorilor proprii și ale vectorilor proprii.
1. Orice combinație liniară de vectori proprii operatorul A care corespunde aceleiași valori proprii λ este un vector propriu cu aceeași valoare proprie.
2. Vectori proprii operatorul A cu valori proprii diferite în perechi λ 1 , λ 2 , …, λ m sunt liniar independenți.
3. Dacă valorile proprii λ 1 =λ 2 = λ m = λ, atunci valoarea proprie λ corespunde nu mai mult de m vectori proprii liniar independenți.

Deci, dacă există n vectori proprii liniar independenți , corespunzătoare diferitelor valori proprii λ 1, λ 2, ..., λ n, atunci acestea sunt liniar independente, prin urmare, pot fi luate ca bază a spațiului R n. Să găsim forma matricei operatorului liniar A pe baza vectorilor săi proprii, pentru care vom acționa cu operatorul A pe vectorii de bază: Apoi .
Astfel, matricea operatorului liniar A pe baza vectorilor proprii are o formă diagonală, iar valorile proprii ale operatorului A sunt de-a lungul diagonalei.
Există o altă bază în care matricea are o formă diagonală? Răspunsul la această întrebare este dat de următoarea teoremă.

Teorema. Matricea unui operator liniar A din bază (i = 1..n) are formă diagonală dacă și numai dacă toți vectorii bazei sunt vectori proprii ai operatorului A.

Regula pentru găsirea valorilor proprii și vectorilor proprii

Fie dat un vector , unde x 1, x 2, …, x n sunt coordonatele vectorului relativ la bază și este vectorul propriu al operatorului liniar A corespunzător valorii proprii λ, adică. Această relație poate fi scrisă sub formă de matrice

. (*)


Ecuația (*) poate fi considerată ca o ecuație pentru găsirea , și , adică ne interesează soluțiile netriviale, deoarece vectorul propriu nu poate fi zero. Se știe că soluțiile netriviale ale unui sistem omogen de ecuații liniare există dacă și numai dacă det(A - λE) = 0. Astfel, pentru ca λ să fie o valoare proprie a operatorului A este necesar și suficient ca det(A - λE) ) = 0.
Dacă ecuația (*) este scrisă în detaliu sub formă de coordonate, obținem un sistem de ecuații liniare omogene:

(1)
Unde - matrice operator liniar.

Sistemul (1) are o soluție diferită de zero dacă determinantul său D este egal cu zero


Am primit o ecuație pentru găsirea valorilor proprii.
Această ecuație se numește ecuație caracteristică și ea partea stanga- polinomul caracteristic al matricei (operatorul) A. Dacă polinomul caracteristic nu are rădăcini reale, atunci matricea A nu are vectori proprii și nu poate fi redusă la formă diagonală.
Fie λ 1, λ 2, …, λ n rădăcinile reale ale ecuației caracteristice, iar printre ele pot exista multipli. Înlocuind aceste valori la rândul lor în sistemul (1), găsim vectorii proprii.

Exemplul 12. Operatorul liniar A acţionează în R 3 conform legii, unde x 1, x 2, .., x n sunt coordonatele vectorului din bază , , . Găsiți valorile proprii și vectorii proprii ai acestui operator.
Soluţie. Construim matricea acestui operator:
.
Creăm un sistem pentru determinarea coordonatelor vectorilor proprii:

Compunem o ecuație caracteristică și o rezolvăm:

.
λ 1,2 = -1, λ 3 = 3.
Înlocuind λ = -1 în sistem, avem:
sau
Deoarece , atunci există două variabile dependente și o variabilă liberă.
Fie x 1 o necunoscută liberă, atunci Rezolvăm acest sistem în orice fel și găsim decizie comună acest sistem: Sistem fundamental soluțiile constă dintr-o soluție, deoarece n - r = 3 - 2 = 1.
Mulțimea vectorilor proprii corespunzători valorii proprii λ = -1 are forma: , unde x 1 este orice număr altul decât zero. Să alegem un vector din această mulțime, de exemplu, punând x 1 = 1: .
Raționând în mod similar, găsim vectorul propriu corespunzător valorii proprii λ = 3: .
În spațiul R 3, baza constă din trei vectori liniar independenți, dar am primit doar doi vectori proprii liniar independenți, din care nu poate fi compusă baza din R 3. În consecință, nu putem reduce matricea A a unui operator liniar la formă diagonală.

Exemplul 13. Dată o matrice .
1. Demonstrați că vectorul este un vector propriu al matricei A. Găsiți valoarea proprie corespunzătoare acestui vector propriu.
2. Găsiți o bază în care matricea A are formă diagonală.
Soluţie.
1. Dacă , atunci este un vector propriu

.
Vectorul (1, 8, -1) este un vector propriu. Valoare proprie λ = -1.
Matricea are o formă diagonală într-o bază formată din vectori proprii. Unul dintre ei este celebru. Hai să găsim restul.
Căutăm vectori proprii din sistem:

Ecuația caracteristică: ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ 2 - 1) = 0
λ 1 = -3, λ 2 = 1, λ 3 = -1.
Să găsim vectorul propriu corespunzător valorii proprii λ = -3:

Rangul matricei acestui sistem este doi și egală cu numărul necunoscute, deci acest sistem are doar soluția zero x 1 = x 3 = 0. x 2 aici poate fi orice altceva decât zero, de exemplu, x 2 = 1. Astfel, vectorul (0,1,0) este un vector propriu , corespunzător lui λ = -3. Sa verificam:
.
Dacă λ = 1, atunci obținem sistemul
Rangul matricei este doi. Tăiem ultima ecuație.
Fie x 3 o necunoscută liberă. Atunci x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
Presupunând x 3 = 1, avem (-3,-9,1) - un vector propriu corespunzător valorii proprii λ = 1. Verificați:

.
Deoarece valorile proprii sunt reale și distincte, vectorii corespunzători acestora sunt independenți liniar, deci pot fi luați ca bază în R 3 . Astfel, în bază , , matricea A are forma:
.
Nu orice matrice a unui operator liniar A:R n → R n poate fi redusă la formă diagonală, deoarece pentru unii operatori liniari pot exista mai puțin de n vectori proprii liniari independenți. Cu toate acestea, dacă matricea este simetrică, atunci rădăcina ecuației caracteristice a multiplicității m corespunde exact m vectori independenți liniar.

Definiție. O matrice simetrică este o matrice pătrată în care elementele simetrice față de diagonala principală sunt egale, adică în care .
Note. 1. Toate valorile proprii ale unei matrice simetrice sunt reale.
2. Vectorii proprii ai unei matrice simetrice corespunzători diferitelor valori proprii în perechi sunt ortogonali.
Ca una dintre numeroasele aplicații ale aparatului studiat, considerăm problema determinării tipului unei curbe de ordinul doi.

Cu matricea A, dacă există un număr l astfel încât AX = lX.

În acest caz, se numește numărul l valoare proprie operator (matricea A) corespunzător vectorului X.

Cu alte cuvinte, un vector propriu este un vector care, sub acțiunea unui operator liniar, se transformă într-un vector coliniar, i.e. doar înmulțiți cu un anumit număr. În schimb, vectorii nepotriviți sunt mai complex de transformat.

Să notăm definiția unui vector propriu sub forma unui sistem de ecuații:

Să mutăm toți termenii în partea stângă:

Ultimul sistem poate fi scris sub formă de matrice după cum urmează:

(A - lE)X = O

Sistemul rezultat are întotdeauna o soluție zero X = O. Astfel de sisteme în care toți termenii liberi sunt egali cu zero se numesc omogen. Dacă matricea unui astfel de sistem este pătrată și determinantul său nu este egal cu zero, atunci folosind formulele lui Cramer vom obține întotdeauna o soluție unică - zero. Se poate dovedi că un sistem are soluții diferite de zero dacă și numai dacă determinantul acestei matrice este egal cu zero, adică.

|A - lE| = = 0

Această ecuație cu l necunoscut se numește ecuație caracteristică (polinom caracteristic) matricea A (operator liniar).

Se poate dovedi că polinomul caracteristic al unui operator liniar nu depinde de alegerea bazei.

De exemplu, să găsim valorile proprii și vectorii proprii ai operatorului liniar definit de matricea A = .

Pentru a face acest lucru, să creăm o ecuație caracteristică |A - lE| = = (1 - l) 2 - 36 = 1 - 2l + l 2 - 36 = l 2 - 2l - 35 = 0; D = 4 + 140 = 144; valori proprii l 1 = (2 - 12)/2 = -5; l 2 = (2 + 12)/2 = 7.

Pentru a găsi vectori proprii, rezolvăm două sisteme de ecuații

(A + 5E)X = O

(A - 7E)X = O

Pentru prima dintre ele, matricea extinsă ia forma

,

de unde x 2 = c, x 1 + (2/3)c = 0; x 1 = -(2/3)s, adică. X (1) = (-(2/3)s; s).

Pentru al doilea dintre ele, matricea extinsă ia forma

,

de unde x 2 = c 1, x 1 - (2/3)c 1 = 0; x 1 = (2/3)s 1, adică X (2) = ((2/3)s 1; s 1).

Astfel, vectorii proprii ai acestui operator liniar sunt toți vectorii de forma (-(2/3)с; с) cu valoare proprie (-5) și toți vectorii de forma ((2/3)с 1 ; с 1) cu valoare proprie 7 .

Se poate dovedi că matricea operatorului A în baza formată din vectorii săi proprii este diagonală și are forma:

,

unde l i sunt valorile proprii ale acestei matrice.

Este adevărat și invers: dacă matricea A într-o anumită bază este diagonală, atunci toți vectorii acestei baze vor fi vectori proprii ai acestei matrice.

De asemenea, se poate dovedi că, dacă un operator liniar are n valori proprii distincte pe perechi, atunci vectorii proprii corespunzători sunt independenți liniar, iar matricea acestui operator în baza corespunzătoare are o formă diagonală.


Să ilustrăm acest lucru cu exemplul anterior. Să luăm valori arbitrare diferite de zero c și c 1, dar astfel încât vectorii X (1) și X (2) sunt independenți liniar, adică. ar constitui o bază. De exemplu, fie c = c 1 = 3, apoi X (1) = (-2; 3), X (2) = (2; 3).

Să ne asigurăm independență liniară acești vectori:

12 ≠ 0. În această nouă bază, matricea A va lua forma A * = .

Pentru a verifica acest lucru, să folosim formula A * = C -1 AC. Mai întâi, să găsim C -1.

C -1 = ;

Forme pătratice

Forma pătratică f(x 1, x 2, x n) a n variabile se numește sumă, fiecare termen fiind fie pătratul uneia dintre variabile, fie produsul a două variabile diferite, luate cu un anumit coeficient: f(x 1 , x 2, x n) = (a ij = a ji).

Se numește matricea A compusă din acești coeficienți matrice formă pătratică. E mereu simetric matrice (adică o matrice simetrică față de diagonala principală, a ij = a ji).

În notația matriceală, forma pătratică este f(X) = X T AX, unde

Într-adevăr

De exemplu, să scriem forma pătratică sub formă de matrice.

Pentru a face acest lucru, găsim o matrice de formă pătratică. Elementele sale diagonale sunt egale cu coeficienții variabilelor pătrate, iar elementele rămase sunt egale cu jumătățile coeficienților corespunzători formei pătratice. De aceea

Fie coloana-matrice a variabilelor X obținută printr-o transformare liniară nedegenerată a coloanei-matrice Y, adică. X = CY, unde C este o matrice nesingulară de ordin al n-lea. Atunci forma pătratică f(X) = X T AX = (CY) T A(CY) = (Y T C T)A(CY) = Y T (C T AC)Y.

Astfel, cu o transformare liniară nedegenerată C, matricea de formă pătratică ia forma: A * = C T AC.

De exemplu, să găsim forma pătratică f(y 1, y 2), obţinută din forma pătratică f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 prin transformare liniară.

Forma pătratică se numește canonic(Are vedere canonică), dacă toți coeficienții săi a ij = 0 pentru i ≠ j, i.e.
f(x 1, x 2, x n) = a 11 x 1 2 + a 22 x 2 2 + a nn x n 2 = .

Matricea sa este diagonală.

Teorema(dovada nu este dată aici). Orice formă pătratică poate fi redusă la formă canonică folosind o transformare liniară nedegenerată.

De exemplu, să reducem forma pătratică la forma canonică
f(x 1, x 2, x 3) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 - x 2 x 3.

Pentru a face acest lucru, mai întâi selectați un pătrat complet cu variabila x 1:

f(x 1, x 2, x 3) = 2(x 1 2 + 2x 1 x 2 + x 2 2) - 2x 2 2 - 3x 2 2 - x 2 x 3 = 2(x 1 + x 2) 2 - 5x 2 2 - x 2 x 3.

Acum selectăm un pătrat complet cu variabila x 2:

f(x 1, x 2, x 3) = 2(x 1 + x 2) 2 - 5(x 2 2 + 2* x 2 *(1/10)x 3 + (1/100)x 3 2) + (5/100)x 3 2 =
= 2(x 1 + x 2) 2 - 5(x 2 - (1/10)x 3) 2 + (1/20)x 3 2.

Atunci transformarea liniară nedegenerată y 1 = x 1 + x 2, y 2 = x 2 + (1/10)x 3 și y 3 = x 3 aduce această formă pătratică la forma canonică f(y 1, y 2 , y 3) = 2y 1 2 - 5y 2 2 + (1/20)y 3 2 .

Rețineți că forma canonică a unei forme pătratice este determinată în mod ambiguu (aceeași formă pătratică poate fi redusă la forma canonică căi diferite). Cu toate acestea, a primit căi diferite formele canonice au o serie de proprietăţi generale. În special, numărul de termeni cu coeficienți pozitivi (negativi) ai unei forme pătratice nu depinde de metoda de reducere a formei la această formă (de exemplu, în exemplul luat în considerare vor exista întotdeauna doi coeficienti negativi și unul pozitiv). Această proprietate se numește legea inerției formelor pătratice.

Să verificăm acest lucru prin aducerea aceleiași forme pătratice la forma canonică într-un mod diferit. Să începem transformarea cu variabila x 2:

f(x 1, x 2, x 3) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 - x 2 x 3 = -3x 2 2 - x 2 x 3 + 4x 1 x 2 + 2x 1 2 = - 3(x 2 2 +
+ 2* x 2 ((1/6) x 3 - (2/3)x 1) + ((1/6) x 3 - (2/3)x 1) 2) + 3((1/6) x 3 - (2/3)x 1) 2 + 2x 1 2 =
= -3(x 2 + (1/6) x 3 - (2/3)x 1) 2 + 3((1/6) x 3 + (2/3)x 1) 2 + 2x 1 2 = f (y 1 , y 2 , y 3) = -3y 1 2 -
+3y 2 2 + 2y 3 2, unde y 1 = - (2/3)x 1 + x 2 + (1/6) x 3, y 2 = (2/3)x 1 + (1/6) x 3 și y 3 = x 1 . Aici există un coeficient negativ -3 la y 1 și doi coeficienți pozitivi 3 și 2 la y 2 și y 3 (și folosind o altă metodă am obținut un coeficient negativ (-5) la y 2 și doi pozitivi: 2 la y 1 și 1/20 la y 3).

De asemenea, trebuie remarcat faptul că rangul unei matrice de formă pătratică, numită rangul formei pătratice, este egal cu numărul de coeficienți diferiti de zero formă canonicăși nu se modifică în cazul transformărilor liniare.

Se numește forma pătratică f(X). pozitiv (negativ) anumit, dacă pentru toate valorile variabilelor care nu sunt simultan egale cu zero, acesta este pozitiv, adică. f(X) > 0 (negativ, adică
f(X)< 0).

De exemplu, forma pătratică f 1 (X) = x 1 2 + x 2 2 este definită pozitiv, deoarece este o sumă de pătrate, iar forma pătratică f 2 (X) = -x 1 2 + 2x 1 x 2 - x 2 2 este definită negativă, deoarece îl reprezintă poate fi reprezentat ca f 2 (X) = -(x 1 - x 2) 2.

În majoritatea situațiilor practice, este ceva mai dificil de stabilit semnul definit al unei forme pătratice, așa că pentru aceasta folosim una dintre următoarele teoreme (le vom formula fără dovezi).

Teorema. O formă pătratică este pozitivă (negativă) definită dacă și numai dacă toate valorile proprii ale matricei sale sunt pozitive (negative).

Teorema(criteriul Sylvester). O formă pătratică este pozitivă definită dacă și numai dacă toate principalele minore ale matricei acestei forme sunt pozitive.

Principal (colț) minor Matricea A de ordinul k de ordinul n se numește determinantul matricei, compusă din primele k rânduri și coloane ale matricei A ().

Rețineți că pentru formele pătratice definite negative semnele minorilor principali alternează, iar minorul de ordinul întâi trebuie să fie negativ.

De exemplu, să examinăm forma pătratică f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 + 3x 2 2 pentru definiția semnului.

= (2 - l)*
*(3 - l) - 4 = (6 - 2l - 3l + l 2) - 4 = l 2 - 5l + 2 = 0; D = 25 - 8 = 17;
. Prin urmare, forma pătratică este definită pozitivă.

Metoda 2. Major minor matricea de ordinul întâi A D 1 = a 11 = 2 > 0. Minor principal de ordinul doi D 2 = = 6 - 4 = 2 > 0. Prin urmare, conform criteriului lui Sylvester, forma pătratică este definită pozitiv.

Examinăm o altă formă pătratică pentru definiția semnului, f(x 1, x 2) = -2x 1 2 + 4x 1 x 2 - 3x 2 2.

Metoda 1. Să construim o matrice de formă pătratică A = . Ecuația caracteristică va avea forma = (-2 - l)*
*(-3 - l) - 4 = (6 + 2l + 3l + l 2) - 4 = l 2 + 5l + 2 = 0; D = 25 - 8 = 17;
. Prin urmare, forma pătratică este definită negativă.

Metoda 2. Minor principal de ordinul I al matricei A D 1 = a 11 =
= -2 < 0. Главный минор второго порядка D 2 = = 6 - 4 = 2 >0. În consecință, după criteriul lui Sylvester, forma pătratică este definită negativă (semnele principalelor minori alternează, începând cu minus).

Și ca un alt exemplu, examinăm forma pătratică determinată de semn f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 - 3x 2 2.

Metoda 1. Să construim o matrice de formă pătratică A = . Ecuația caracteristică va avea forma = (2 - l)*
*(-3 - l) - 4 = (-6 - 2l + 3l + l 2) - 4 = l 2 + l - 10 = 0; D = 1 + 40 = 41;
.

Unul dintre aceste numere este negativ, iar celălalt este pozitiv. Semnele valorilor proprii sunt diferite. În consecință, forma pătratică nu poate fi definită nici negativ, nici pozitiv, adică. această formă pătratică nu este definită de semn (poate lua valori ale oricărui semn).

Metoda 2. Minor principal de ordinul I al matricei A D 1 = a 11 = 2 > 0. Minor principal de ordinul II D 2 = = -6 - 4 = -10< 0. Следовательно, по критерию Сильвестра квадратичная форма не является знакоопределенной (знаки главных миноров разные, при этом первый из них - положителен).

Definiție 5.3. Vector diferit de zero x în spațiul liniar L este numit vectorul propriu al operatorului liniar A: L → L, dacă pentru un număr real A este valabilă relația Ax = λx. În acest caz, se numește numărul λ valoare proprie (valoare proprie) a operatorului liniar A.

Exemplul 5.3. Spațiul liniar K n [x] al polinoamelor de grad nu mai mare decât n conține polinoame de grad zero, i.e. funcții permanente. Deoarece dc/dx = 0 = 0 c, polinoamele de grad zero p(x) = c ≠ 0 sunt vectorii proprii ai operatorului de diferențiere liniară, iar numărul λ = 0 este valoarea proprie a acestui operator. #

Se numește mulțimea tuturor valorilor proprii ale unui operator liniar spectrul operatorului liniar . Fiecare vector propriu este asociat cu propria sa valoare proprie. Într-adevăr, dacă un vector x satisface simultan două egalități Ax = λx și Ax = μx, atunci λx = μx, de unde (λ - μ)x = 0. Dacă λ - μ ≠ 0, înmulțiți egalitatea cu numărul (λ - μ) ) -1 și ca rezultat obținem că x = 0. Dar acest lucru contrazice definiția unui vector propriu, deoarece un vector propriu este întotdeauna diferit de zero.

Fiecare valoare proprie are propriii eigenvectori și există o infinitate de ei. Într-adevăr, dacă x este un vector propriu al unui operator liniar A cu o valoare proprie λ, i.e. Ах = λx, atunci pentru orice număr real diferit de zero α avem αx ≠ 0 și А(αх) = α(Ах) = αλx = λ(αx). Aceasta înseamnă că vectorul αx este, de asemenea, un vector propriu pentru operatorul liniar.

Observația 5.1. Ei vorbesc adesea despre valorile proprii (numerele), spectrul și vectorii proprii ai unei matrice pătrate . Aceasta înseamnă următoarele. Matricea A de ordinul n este matrice niste operator liniarîntr-un fix bază, operează în spațiu liniar n-dimensional. De exemplu, dacă ne oprim la bază standard în spațiul aritmetic liniar R n , atunci matricea A definește un operator liniar A, mapând un vector x ∈ R n cu o coloană de coordonate x la un vector cu o coloană de coordonate Ax. Matricea A este tocmai matricea A. Este firesc să identificăm un operator cu matricea sa în același mod în care un vector aritmetic este identificat cu o coloană a coordonatelor sale. Această identificare, care este adesea folosită și nu întotdeauna specificată, face posibilă transferul termenilor „operator” în matrice.

Spectrul unui operator liniar este strâns legat de acesta ecuație caracteristică.

Teorema 5.3. Pentru ca un număr real λ să fie o valoare proprie a unui operator liniar, este necesar și suficient ca acesta să fie rădăcina ecuației caracteristice a acestui operator.

◄ Necesitatea. Fie numărul λ o valoare proprie a operatorului liniar A: L → L. Aceasta înseamnă că există un vector x ≠ 0 pentru care

Ax = λx. (5,2)

Rețineți că în L există operator de identitate I: Ix = x pentru orice vector x. Folosind acest operator, transformăm egalitatea (5.2): Ах = λIx, sau

(A - λI)x = 0. (5.3)

Să scriem egalitatea vectorială (5.3) într-o bază b. Matricea operatorului liniar A - λI va fi matricea A - λE, unde A este matricea operatorului liniar A din baza b, iar E este matricea identității și fie x coloana de coordonate a vectorului propriu x . Atunci x ≠ 0, iar egalitatea vectorială (5.3) este echivalentă cu matricea

(A - λE)x = 0, (5.4)

care este o formă matriceală de înregistrare a unui sistem omogen de liniară ecuații algebrice(SLAU) cu matrice pătrată A - λE de ordinul n. Acest sistem are o soluție diferită de zero, care este coloana de coordonate x a vectorului propriu x. Prin urmare, matricea A - λE a sistemului (5.4) are un determinant zero, i.e. det(A - λE) = 0. Aceasta înseamnă că λ este rădăcina ecuației caracteristice a operatorului liniar A.

Adecvarea. Este ușor de observat că raționamentul de mai sus poate fi efectuat în ordine inversă. Dacă λ este rădăcina ecuației caracteristice, atunci într-o bază dată b este valabilă egalitatea det (A - λE) = 0. În consecință, matricea SLAE omogenă (5.4), scrisă sub formă de matrice, este degenerată, iar sistemul are o soluție diferită de zero x. Această soluție diferită de zero este o mulțime de coordonate în baza b a unui vector diferit de zero x pentru care este valabilă egalitatea vectorială (5.3) sau egalitatea echivalentă (5.2). Ajungem la concluzia că numărul λ este o valoare proprie a operatorului liniar A.

Fiecare valoare proprie λ a matricei (operatorul liniar) este asociată cu ea multiplicitate, punându-l egal cu multiplicitatea rădăcinii λ a ecuației caracteristice acestei matrice (a acestui operator liniar).

Mulțimea tuturor vectorilor proprii corespunzători unei valori proprii date a unui operator liniar nu este subspațiu liniar, deoarece acest set nu conține vector zero, care, prin definiție, nu poate fi adecvată. Dar acest obstacol formal și ușor de îndepărtat este singurul. Să notăm cu £(A, λ) mulțimea tuturor vectorilor proprii ai operatorului liniar A din spațiul liniar L corespunzător valorii proprii λ, cu vectorul zero adăugat la această mulțime.

Teorema 5.4. Mulțimea £(A,λ) este un subspațiu liniar în L.

◄ Să alegem două arbitrare vector x,y∈ £(A, λ) și să demonstrăm că pentru orice α și β real și vectorul αx + βу aparține lui £(A, λ). Pentru a face acest lucru, calculăm imaginea acestui vector sub acțiunea operatorului liniar A:

А(αх + βу) = А((αx) + А(βу) = αАх + βАу = α(λх) + β(λу) = λ(αx) + λ(βу) = λ(αx + βу).

Astfel, pentru vectorul z = αх + βу se menține relația Az = λz. Dacă z este un vector zero, atunci acesta aparține lui £(A,λ). Dacă este diferit de zero, atunci, conform relației dovedite, este o valoare proprie cu o valoare proprie λ și aparține din nou mulțimii £(A, λ).

Subspațiul liniar £(A,λ) este uneori numit subspațiul propriu al operatorului liniar *. Este un caz special subspațiu invariant operator liniar A - un subspațiu liniar astfel încât pentru orice vector x ∈ H vectorul Ax să aparțină și lui H.

Un subspațiu invariant al unui operator liniar este, de asemenea, intervalul liniar al oricărui sistem de vectori proprii. Un subspațiu invariant al unui operator liniar care nu are legătură cu vectorii proprii este imaginea operatorului.