1 Løsning og mindste kvadraters løsninger af lineære ligningssystemer Def. Linære ligningssystemer Et lineært ligningssystem er et system af m ligninger i n ubekendte, hvor disse kan skrives som: a11 x1 a12 x2 ... a1n xn b1 ... am1 x1 am 2 x2 ... amn xn bm Disse systemer kan også skrives på matrix form således: Ax b Hvor løsningsmængden for systemer er de x for hvilket systemet er konsistent. Hvis systemet ingen løsninger har, er løsningsmængden tom – det siges at systemet er inkonsistent. Teorem 1.2.1 [L] Et m n homogent system af lineære ligninger har en ikke-triviel løsning hvis n m . Bevis Teorem 1.2.1 [L] Et homogent system er altid konsistent ( x 0 er altid en løsning). REF formen af matricen har højst m ikke-nul rækker. Derved er der også maksimalt m pivoter. Siden der er n ubekendte og n m så må der være en eller flere frie variabler. De frie variabler kan derfor blive givet arbitrære værdier og for enhver værdi af de frie variable er der en løsning til systemet. Def. Mindste kvadrat Mindste kvadrater er en metode vi bruger til at lave et best fit af en given mængde data, således at man kan strukturere disse som eksempelvis en ret linje eller noget tilsvarende. Givet et m n lineært ligningssystem Ax b med m n (overdetermineret), så kan vi ikke generelt forvente at finde et x residual: n for hvilket Ax b . Derfor hvis b m , så for ethvert x n kan vi forme et r x b Ax Distancen mellem b og Ax er givet ved: b Ax r x Hvor vi ønsker at finde en vektor x n for hvilket r x vil være minimal. En vektor xˆ der gør dette siges at være en mindste kvadraters løsning til systemet Ax b . Det følgende teorem garanterer at en sådan tætteste vektor p ikke blot eksisterer, men er unik: 1 Teorem 5.3.1 [L] Lad S være et underrum og b m m . Da er projektionen p af b på S unik og tættest på b . Altså: b y b p y S ^ y p En vektor p S vil desuden være tættest på en vektor b m b pS Bevis Teorem 5.3.1 Vi ved at m S S . Vi kan derfor skrive b m unikt som summen: b pz Hvor p S og z S . Lad y S ^ y p , da gælder der (fra b trækkes p, igen lægges p til og y trakkes fra): b y b p p y 2 2 Da b p z S og p y S giver Pythagoras’ lov (lav eventuelt tegning): b y b p p y 2 hvor p y 2 2 2 0 da p y hvilket giver b y b p 2 2 For at vise at b p S hvis p er vektoren tættest på b , antag at q S ^ b q S , da er q p , og så følger samme argument som overstående (med y q ) bq b p 2 2 Proposition 5.2.4 [N] Systemet AT Ax AT b er konsistent, og z er en løsning til dette system z er en mindste kvadraters løsning til Ax b . Bevis Proposition 5.2.4 Lad p PSø A b Az p b Az Sø A b Az N AT AT b Az 0 AT b AT Az 0 AT Az AT b Det vil sige z er en løsning til AT Az AT b Az p hvor p er mindste kvadraters løsning til Ax b . 2 Teorem 2.2.9 [N] Lad V være et F vektorrum, lad v1 ,..., vn V og lad S span v1 ,..., vn . Et element v S kan udtrykkes entydigt som en lineær kombination af v1 ,..., vn v1 ,..., vn er lineært uafhængige. Bevis Teorem 2.2.9 Da v span v1 ,..., vn kan vi skrive v a1v1 ... an vn med a1 ,..., an F . Lad os antage at v også kan skrives som v b1v1 ... bnvn . Så er 0 vv a1v1 ... an vn b1v1 ... bn vn a1 b1 v1 ... an bn vn Hvis v1 ,..., vn er lineært uafhængige vil ligningen 0 c1v1 ... cnvn c1 0,..., cn vn . Dette vil sige at ai bi 0 ai bi så v kan skrives unikt som en lineær kombination af v1 ,..., vn . Hvis v1 ,..., vn er lineært afhænge vil ligningen 0 c1v1 ... cn vn have en ikke-triviel løsning c1 ,..., c n så 0 c1v1 ... c n vn og vi får at v v0 a1v1 ... an vn c1v1 ... c n vn a1 c1 v1 ... an c n vn Hvor ai ci ai for et eller andet i 1,..., n . Så v kan ikke skrives unikt hvis v1 ,..., vn er lineært afhængige. 3 2 Vektorrum og underrum Def. Underum Et ikke-tomt delmængde S af et F vektorum V kaldes et underum hvis: (tilsammen kaldet lukkethedsegenskaber) C1: y S , a F : ay S (skalamultiplikation) C 2 : y, w S : y w S (vekteraddition) Def. Linear transformation Lad V ,W være F vektorum. En lineær transformation L : V W er en afbildning som respekterer lineære strukturer, det vil sige følgende er opfyldt: v1 , v2 V , a1 , a2 F : L a1v1 a2v2 a1L v1 a2 L v2 Def. Ker Lad L : V W være en linear transformation. Kernen af L er da Ker L v V | L v 0W Def. Billede Lad L : V W være en linear transformation, lad S V være et underrum, da er billedemængden L S w W | w L v , v S Teorem 4.1.1 [L] Hvis L : V W er en lineær transformation og S et underrum af V . Så er 1. Ker L et underrum af V 2. L S et underrum af W Bevis teorem 4.1.1 For 1: Ker L er en ikke-tom mængde da 0V V og 0W L 0V . C1 (skalarmultiplikation): Lad v Ker V , a F , da gælder L av aL v a0w 0w Ker L C2 (vektoradition): v, w Ker L , da gælder L v w L v L w 0W 0W 0W Ker L Ker L er da et underum. 4 For 2: L S er ikke-tom da 0W L 0V L S . C1: Lad a F , w L v for et v S , da gælder aw aL v L av . Da av S så L av L S C2: Lad w1 L v1 , w2 L v2 for et v1 , v2 S , da gælder w1 w2 L v1 L v2 L v1 v2 og da v1 v2 S så L v1 v2 L S L S er da et underrum. Def. Span Lad V være et F vektorrum, v1 ,..., vn V udspænder V ( V span v1 ,..., vn ) hvis og kun hvis enhver vektor v V kan skrives som en linear kombination af v1 ,..., vn V Teorem 3.4.1 [L] Hvis span v1 ,..., vn V , så er ethvert sæt af m n vektorer tilhørende V være lineært afhængige. Bevis teorem 3.4.1 Det muligt at opskrive ui for i 1,..., m som en linear kombination af v1 ,..., vn . n ui aij v j j 1 For en vektor x V , da kan x skrives som en linear kombination af ui . x x1u1 ... xmum m xi ui i 1 m n i 1 j 1 xi aij v j n m xi aij v j j 1 i 1 m xi aij 0 . Dette er et ligningssystem med m j 1 i 1 n Lad os prøve at løse det homogene ligningssystem variable (ubekendte) og n ligninger. Da m n er der flere ubekendte end der er ligninger. Da eksisterer der en ikke-triviel løsning c c1 ,..., cm . Dette betyder at følgende gælder T m n i 1 j 1 c1u1 ... cmum ci ui 0v j 0 Derved er u1 ,..., um lineært afhængige. 5 Teorem 2.2.9 [N] Lad V være et F vektorrum, lad v1 ,..., vn V og lad S span v1 ,..., vn . Et element v S kan udtrykkes entydigt som en lineær kombination af v1 ,..., vn v1 ,..., vn er lineært uafhængige. Bevis Teorem 2.2.9 Da v span v1 ,..., vn kan vi skrive v a1v1 ... an vn med a1 ,..., an F . Lad os antage at v også kan skrives som v b1v1 ... bnvn . Så er 0 vv a1v1 ... an vn b1v1 ... bn vn a1 b1 v1 ... an bn vn Hvis v1 ,..., vn er lineært uafhængige vil ligningen 0 c1v1 ... cnvn c1 0,..., cn vn . Dette vil sige at ai bi 0 ai bi så v kan skrives unikt som en lineær kombination af v1 ,..., vn . Hvis v1 ,..., vn er lineært afhænge vil ligningen 0 c1v1 ... cn vn have en ikke-triviel løsning c1 ,..., c n så 0 c1v1 ... c n vn og vi får at v v0 a1v1 ... an vn c1v1 ... c n vn a1 c1 v1 ... an c n vn Hvor ai ci ai for et eller andet i 1,..., n . Så v kan ikke skrives unikt hvis v1 ,..., vn er lineært afhængige. 6 3 Lineær uafhængighed Def. Lineær uafhængighed Lad V være et F vektorrum, og lad v1 ,..., vn V Et sæt v1 ,..., vn af vektorer er lineært uafhængige c1v1 ... cnvn 0 c1 0,..., cn 0 Hvis der findes en ikke-triviel løsning til ligningssystemet kaldes v1 ,..., vn afhængige og en af vektorerne kan skrives som en linearkombination af de andre. Def. Span Lad V være et F vektorrum, v1 ,..., vn V udspænder V ( V span v1 ,..., vn ) hvis og kun hvis enhver vektor v V kan skrives som en linear kombination af v1 ,..., vn V Teorem 3.3.1 [L] Lad x1 ,..., xn n og lad X x1 ,..., xn . Så gælder der X er singulær x1 ,..., xn er lineært afhængige Bevis Teorem 3.3.1 Vi har en ligning c1 x1 ... cn xn 0 Der kan skrives på matrixform: Xc 0 Vi ved at hvis X er invertibel, så har ligningen Xc 0 kun løsningen c 0 , da Xc 0 X 1 Xc X 1 0 c 0 . Vi ved også at hvis ligningen Xc 0 kun har løsningen c 0 så er X invertibel. (Sætning 1.4.8 [N]) 7 Teorem 3.4.1 [L] Hvis span v1 ,..., vn V , så er ethvert sæt af m n vektorer tilhørende V være lineært afhængige. Bevis teorem 3.4.1 Det muligt at opskrive ui for i 1,..., m som en linear kombination af v1 ,..., vn . n ui aij v j j 1 For en vektor x V , da kan x skrives som en linear kombination af ui . x x1u1 ... xmum m xi ui i 1 m n xi aij v j i 1 j 1 xi aij v j j 1 i 1 n m m xi aij 0 . Dette er et ligningssystem med m j 1 i 1 n Lad os prøve at løse det homogene ligningssystem variable (ubekendte) og n ligninger. Da m n er der flere ubekendte end der er ligninger. Da eksisterer der en ikke-triviel løsning c c1 ,..., cm . Dette betyder at følgende gælder T m n i 1 j 1 c1u1 ... cmum ci ui 0v j 0 Derved er u1 ,..., um lineært afhængige. 8 Teorem 2.2.9 [N] Lad V være et F vektorrum, lad v1 ,..., vn V og lad S span v1 ,..., vn . Et element v S kan udtrykkes entydigt som en lineær kombination af v1 ,..., vn v1 ,..., vn er lineært uafhængige. Bevis Teorem 2.2.9 Da v span v1 ,..., vn kan vi skrive v a1v1 ... an vn med a1 ,..., an F . Lad os antage at v også kan skrives som v b1v1 ... bnvn . Så er 0 vv a1v1 ... an vn b1v1 ... bn vn a1 b1 v1 ... an bn vn Hvis v1 ,..., vn er lineært uafhængige vil ligningen 0 c1v1 ... cnvn c1 0,..., cn vn . Dette vil sige at ai bi 0 ai bi så v kan skrives unikt som en lineær kombination af v1 ,..., vn . Hvis v1 ,..., vn er lineært afhænge vil ligningen 0 c1v1 ... cn vn have en ikke-triviel løsning c1 ,..., c n så 0 c1v1 ... c n vn og vi får at v v0 a1v1 ... an vn c1v1 ... c n vn a1 c1 v1 ... an c n vn Hvor ai ci ai for et eller andet i 1,..., n . Så v kan ikke skrives unikt hvis v1 ,..., vn er lineært afhængige. 9 4 Basis for vektorrum; koordinatisering Def. Ordnet basis Lad V være et F vektorrum, og lad v1 ,..., vn V v1 ,..., vn er en ordnet basis for V hvis 1. v1 ,..., vn er lineært uafhængige 2. v1 ,..., vn udspænder V Normalt er rækkefølgen irrelevant, men i visse tilfælde kan det være nødvendigt at have dem ordet (Hvilket det bl.a. er for koordinatisering) Teorem 3.1.3 [N] Lad V være et F vektorrum, V 0 , som er udspændt af endelig mange vektorer v1 ,..., vn . Da har V en basis indeholdt i v1 ,..., vn Bevis Teorem 3.1.3 [N] Induktion i n . Altså induktion i antallet af vektorer i den udspændende mængde. Basis n 1 : Vi ved at V 0 og at V span v1 , derfor er v1 0 så v1 er lineært uafhængige og derfor en basis for V . Induktionshypotese Vi antager at udsagnet gælder for et vektorrum udspændt af n 1 vektorer. Induktionsskridt Vi vil gerne vise at det gælder for et vektorrum udspændt af n vektorer. Lad V span v1 ,..., vn . Hvis v1 ,..., vn er lineært uafhængige, så er v1 ,..., vn en basis for V . Hvis v1 ,..., vn er lineært afhængige, så kan én af dem skrives som en lineærkombination af de andre. Efter omnummerering kan vi antage at vn c1v1 ... cn1vn1 . Men så er V span v1 ,..., vn1 og ifølge induktionshypotesen har V en basis indeholdt i v1 ,..., vn 1 . I begge tilfælde har V en basis indeholdt i v1 ,..., vn . Def. Koordinatisering Lad v1 ,..., vn være en ordnet basis for V . Lad v V ; v kan skrives entydigt som en lineær kombination af v1 ,..., vn , v c1v1 ... cnvn . 10 c1 n Der findes således et entydigt element ... F , som angiver koordinaterne for v mht. V . Dette kaldes cn c1 koordinatvektoren for v mht. V og vi skriver v ... cn Lemma 3.3.2 [N] Koordinatisering bevarer lineær struktur, dvs: 1. 2. v w v w rv r v Bevis Lemma 3.3.2 1: Lad v, w , skriv v c1v1 ... cnvn , w d1v1 ... dn vn . Da er v w c1 d1 v1 ... cn dn vn og så gælder der c1 d n c1 d1 v w ... ... ... v w cn d n cn d n 2: Lad v , skriv v c1v1 ... cnvn da er rv rc1v1 ... rcnvn og rc1 c1 rv ... r ... r v rcn cn Proposition 3.3.7 [N] Lad Ub u1 ,..., un ,Vb v1 ,..., vn være to ordnede baser for et F vektorrum W . Lad K Matn,n F være givet ved søjleform som u1 ...un Vb Vb Der gælder 1. 2. K er invertibel w W : wV K wU b 3. b K er den entydige matrix i Matn,n F således at 2 gælder. 11 Bevis Proposition 3.3.7 1: x1 Antag at K ... 0 så xn 0 x1 u1 V ... xn un V b x1u1 ... xnun V b B Idet at koordinatisering bevarer lineær struktur. Så x1u1 ... xnun 0 og da u1 ,..., un er lineært uafhængige, er den eneste løsning til Kx 0 løsningen x 0 . Da x 0 er den enste løsning er K invertibel. 2: Vi udtrykker ui som en lineær kombination af v1 ,..., vn ui k1i v1 ... kni vn hvor k1i ... u i Vb som er den i’te søjle i K kni Skriv w c1u1 ... cnun så wU b c1 ... cn Vi indsætter ui w c1 k11v1 ... kn1vn ... cn k1nv1 ... knnvn c1k11 ... cn k1n v1 ... c1kn1 ... cn knn vn så wV b k11c1 ... k1n cn Kc K w Ub kn1c1 ... knn cn 12 3: Antag at wV K ' wU for alle w W b b Dette gælder specielt for ui for i 1,..., n 1' te søjlei K ui V b K ' ui U K ' ei ì ' te søjlei K ' b K og K ' har altså samme søjler og derfor er K ' K . Note for bevis: ui U b 0 ... ei 1 i ' te plads da ui udtrykket i sin egen base er 1 ui . ... 0 13 5 Matricer og lineære transformationer Def. Linear transformation Lad V ,W være F vektorrum. En lineær transformation L : V W er en afbildning som respekterer lineære strukturer, det vil sige følgende er opfyldt: L a1v1 a2v2 a1L v1 a2 L v2 v1 , v2 V , a1 , a2 F : Sætning 4.2.1 [N] Lad L : F n F m være en lineær transformation. Definer M L Matm,n F ved M L L e1 ,..., L en Så er L x M L x for alle x F n . M L er den entydige matrix med denne egenskab. Bevis Sætning 4.2.1 Lad x F n , x kan da skrives som x x1e1 ... xn en . Vi beregner der lineær transformation på denne L x L x1e1 ... xn en x1 L e1 ... xn L en x1 L e1 ,..., L en ... xn M L x Antag at der nu findes en anden matrix M ' L Matm,n F med L x M ' L x . Så gælder der at ì ' te søjlei M L L e M ' L e ì ' te søjlei M ' L i i Søjlerne i M L og M ' L er ens, og da er M ' L M L . M L er da den entydige matrix med denne egenskab. 14 Diagram Vi vil gerne se at dette diagram kommuterer: Sætning 4.2.4 [N] Lad V ,W være F vektorrum. Lad Vb v1 ,.., vn og Wb w1 ,..., wn være ordnede baser for V og W . Lad L : V W være en linear transformation. Definer MWb ,Vb L L v1 W ,..., L vn W b b Så er L v Wb MWb ,Vb L v V for alle v V , og at MWb ,Vb L er den entydige matrix med denne b egenskab. Bevis Sætning 4.2.2 Lad v V så kan v skrives som v x1v1 ... xn vn og derved er v V b x1 ... xn Lav nu den lineære transformation på v . L v L x1v1 ... xn vn x1 L v1 ... xn L vn Lad os nu se på koordinatiseringen af denne L v W x1 L v1 ... xn L vn W b b x1 L v1 W ... xn L vn W b b x1 L v1 W ,..., L vn W ... b b xn M Wb ,Vb L v V b 15 Lad os nu antage der findes en anden matrix M 'Wb ,Vb L Matm,n F hvor L v M 'Wb ,Vb L x V Wb b Dette gælder specielt for v1 ,..., vn så ì ' te søjlei M Wb ,Vb L L vi W b M 'Wb ,Vb L vi V M 'Wb ,Vb L ei ì ' te søjlei M 'Wb ,Vb L b Så søjlerne i MWb ,Vb L og M 'Wb ,Vb L er ens og derfor er M 'Wb ,Vb L MWb ,Vb L . Derfor er MWb ,Vb L den entydige matrix med denne egenskab. Def. Ker Lad L : V W være en linear transformation. Kernen af L er da Ker L v V | L v 0W Def. Billede Lad L : V W være en linear transformation, lad S V være et underrum, da er billedemængden L S w W | w L v , v S Teorem 4.1.1 [L] Hvis L : V W er en lineær transformation og S et underrum af V . Så er 3. Ker L et underrum af V 4. L S et underrum af W Bevis teorem 4.1.1 For 1: Ker L er en ikke-tom mængde da 0V V og 0W L 0V . C1 (skalarmultiplikation): Lad v Ker V , a F , da gælder L av aL v a0w 0w Ker L C2 (vektoradition): v, w Ker L , da gælder L v w L v L w 0W 0W 0W Ker L Ker L er da et underum. For 2: L S er ikke-tom da 0W L 0V L S . C1: Lad a F , w L v for et v S , da gælder aw aL v L av . Da av S så L av L S C2: Lad w1 L v1 , w2 L v2 for et v1 , v2 S , da gælder w1 w2 L v1 L v2 L v1 v2 og da v1 v2 S så L v1 v2 L S L S er da et underrum. 16 6 Determinanter Def. Determinant Til enhver n n matrix er det muligt at associere en skalar det A . For en 11 matrix er det A a11 . For e n n matrix er det A a11 A11 ... a1n A1n hvor Aij 1 i j det M ij og M ij er matricen A med den i ’te række og j ’te søjle slettet. Aij kaldes kofaktor for A og M ij kaldes minorer af A Det er ligegyldigt om hvilken række eller søjle vi udvikler fra Teorem 2.1.2 [L] Lad A Matn,n F , da gælder at det A det AT Bevis Teorem 2.1.2 Dette er et induktionsbevis over n Basis 11 : Dette gælder trivialt da A AT det A det AT Induktionshypotese: Vi antager at det gælder for alle k 1 k 1 matricer. Induktionsskridt: Vi skal vise det gælder for alle k k matricer. Lad A Matk ,k F da er det A a11 det M11 a12 det M12 ... a1n det M1n Her er alle M ij matricer k 1 k 1 og vi kan bruge induktionshypotesen: det A a11 det M11T a12 det M12T ... a1n det M1nT Da a11 det M11T a12 det M12T ... a1n det M1nT blot er det AT udviklet efter første søjle: det A det AT 17 Teorem 2.2.2 [L] A Matn,n F er singulær det A 0 Bevis Teorem 2.2.2 Det er muligt at rækkereducere A til RREF H ved endeligt mange rækkeoperationer, så H Ek ...E1 A Vi tager nu determinanten på begge sider det H det Ek ...E1 A det Ek ...det E1 det A Da det Ei 0 for i 1,..., k fordi Ei er en elementær rækkeoperation, så gælder der at det H 0 det A 0 . Hvis A er singulær så vil H have en nul-række og vi kan udvikle langs denne og få det H 0 . Hvis A er invertibel så vil H I og da er det H 1 . Teorem 2.3.1 [L] (Cramers regel) Lad A Matn,n F være invertibel og lad b F n . Lad Ai være matricen der fås ved erstatte den i ’te søjle i A med b . Den entydige løsning xˆ til systemet Ax b er givet ved; xˆi det Ai , i 1,..., n det A Bevis Teorem 2.3.1 A1b er den entydige løsning til Ax b . Så vi har xˆ A1b 1 adj A b det A Og for i 1,..., n xi 1 i ' te række i adj A b det A 1 A1ib1 ... Anibn det A det Ai det A 18 7 Egenværdier og egenvektorer Def. Egenværdi og egenvektor Lad A Matn,n F , F er en egenværdi for A hvis der findes x F \ 0 , så Ax x x kaldes da for en egenvektoren til A associeret til . Def. Egenrum Ved omskrivning af definitionen ovenfor får vi A I x 0 Løsningsrummet N A I kaldes for egenrummet til matricen A . Egenrummet består af alle egenvektorer til en given egenværdi. Def. Similaritet Lad A, B Matn,n F . B siges at være similar til A hvis der eksisterer en matrix S Matn,n F så: B S 1 AS Teorem 6.1.1 [L] Lad A, B Matn,n F være similare. Da er pA pB Bevis Teorem 6.1.1 Da A og B er similare kan B skrives som B S 1 AS . Lad os beregne pB pB det B I det S 1 AS I det S 1 A I S det S 1 det A I det S 1S det A I det I det A I det A I pA 19 Def. Diagonaliserbar Lad A Matn,n F . A er diagonaliserbar hvis der eksisterer en invertibel matrix V Matn,n F så D V 1 AV Hvor D er diagonal. Teorem 6.3.2 [L] Lad A Matn,n F . A er diagonaliserbar A har n linear uafhængige egenvektorer Bevis Teorem 6.3.2 Lad x1 ,..., xn være linear uafhængige egenvektorer til A med tilhørende egenværdi i . Lad X x1 ,..., xn da er AX Ax1 ,..., Axn 1 x1 ,..., n xn 1 x1 ,..., xn XD n Da X har n lineært uafhængige søjlevektorer, så er X invertibel. Så AX XD X 1 AX X 1 XD X 1 AX D A er altså diagonaliserbar. A er nu diagonaliserbar og derfor X 1 AX D XX 1 AX XD AX XD d11 Lad X x1 ,..., xn , D så d nn d11 XD x1 ,..., xn x d ,..., x d n nn 1 11 d nn 20 Da AX XD (vi kan gange med e1 på begge sider for at pille første søjle ud) må d11 ,..., d nn må være egenværdier for A med tilhørende egenvektorer x1 ,..., xn . Fordi X er invertibel er x1 ,..., xn linear uafhængige. 21 8 Diagonalisering Def. Egenværdi og egenvektor Lad A Matn,n F , F er en egenværdi for A hvis der findes x F \ 0 , så Ax x x kaldes da for en egenvektoren til A associeret til . Def. Diagonaliserbar Lad A Matn,n F . A er diagonaliserbar hvis der eksisterer en invertibel matrix V Matn,n F så D V 1 AV Hvor D er diagonal. Teorem 6.3.2 [L] Lad A Matn,n F . A er diagonaliserbar A har n linear uafhængige egenvektorer Bevis Teorem 6.3.2 Lad x1 ,..., xn være linear uafhængige egenvektorer til A med tilhørende egenværdi i . Lad X x1 ,..., xn da er AX Ax1 ,..., Axn 1 x1 ,..., n xn 1 x1 ,..., xn XD n Da X har n lineært uafhængige søjlevektorer, så er X invertibel. Så AX XD X 1 AX X 1 XD X 1 AX D A er altså diagonaliserbar. A er nu diagonaliserbar og derfor X 1 AX D XX 1 AX XD AX XD 22 d11 Lad X x1 ,..., xn , D så d nn d11 XD x1 ,..., xn x d ,..., x d n nn 1 11 d nn Da AX XD (vi kan gange med e1 på begge sider for at pille første søjle ud) må d11 ,..., d nn må være egenværdier for A med tilhørende egenvektorer x1 ,..., xn . Fordi X er invertibel er x1 ,..., xn linear uafhængige. Def. Unitær En matrix U Matn,n er unitær, hvis søjlerne i U udgør en ortonormalbasis for n . Def. Hermitisk matrix En matrix A Matn,n er hermite’sk hvis A AH A T Teorem 11.1.9 [N] (Schurs teorem) Lad A Matn,n . Der findes en unitær matrix U Matn,n så U H AU er en øvretrekantsmatrix. Bevis Teorem 11.1.9 Beviser er ved induktion over n . Basis n 1 Trivielt idet alle 11 matricer er øvretriangulære. Induktionshypotese Vi antager at udsagnet gælder for alle matricer i Matn1,n1 . Induktionsskridt Lad A Matn,n og lad 1 være en egenværdi for A , med tilsvarende egenvektor v1 n . Vi kan arrangere at v1 1 . v1 kan udvides til en basis for n , og ved at anvende Gram-schmidt på denne basis, får vi en ortonormalbasis v1 ,..., vn for n . Lad U1 v1 ,..., vn Matn,n . U er da unitær ved konstruktion. Vi har da (vi piller først søjle af U1H AU1 ud) U1H AU1e1 U1H Av1 1U1H v1 1U1HU1e1 1e1 Vi kan altså skrive 23 U1H AU1 1 0 r A1 Hvor 0 er en søjlevektor og r er en rækkevektor med n 1 indgange. Ifølge induktionshypotesen så eksisterer der en matrix C Matn1,n1 så C H A1C er øvre en øvretrekantsmtrix. Definer nu 1 0T U2 0 C Matricen U 2 er unitær da de sidste n 1 søjler udgør en ortonormal mængde, og hver for sig er ortogonale på den første søjle, som er en enhedsvektor. Så er produktet U U1U 2 også unitær. Vi vil vise at U H AU er øvre-triangulær. Da blokstørelserne i matricerne er ens kan vi bruge blok matrix multiplikation. U H AU U 2H U1H AU1 U 2 1 0T 1 r 1 0T H 0 C 0 A1 0 C r 1 0T 1 H 0 C A1 0 C rC 1 H 0 C A1C rC 1 0 B Denne matrix er øvre triangulær da B (fra induktionshypotesen) er det. 24 Teorem 11.1.10 [N] (Spektralsætning for hermite’ske matricer) Lad A Matn,n U Matn,n være hermite’sk. Så kan A diagonaliseres, dvs der findes en unitær matrix så U H AU Er diagonal med reelle diagonalindgange. Bevis Teorem 11.1.10 Ifølge Schurs sætning findes der en unitær matrix U Matn,n så U H AU T er en øvretrekantsmatrix. T er hermite’sk da: T H U H AU H U H AH U U H AU T Men t11 T 0 0 0 t1n t11 , TH t1n tnn 0 0 0 tnn Da må ti , j 0 for i j og da ti ,i ti ,i må ti ,i være reel. T er da en diagonalmatrix med reelle indgange. 25 9 Indre produkt Def. Indre produkt , :V V Et indre produkt på et reelt vektorrum V er en funktion x, y, z V , a, b , således at for alle : 1. x, x 0 med lighed v 0 2. x, y y, x 3. ax by, z a x, z b y, z Def. Norm og ortogonalitet Lad V være et vektorrum med indre produkt , . Normen, også kaldt længden af x V er da defineret til x x, x x, y V er ortogonale hvis x, y 0 Teorem 6.1.4 [N] (Pythagoras) Lad V være et reelt vektorrum med indre produkt uv u v 2 2 , , og lad u, v V være ortogonale. Da gælder 2 Bevis Teorem 6.1.4 Vi beregner u v 2 ved brug af indre produkt , : u v u v, u v 2 u , u v, v 2 u , v u , u v, v u v 2 2 u, v forsvinder da u v . 26 2 Def. Vektorprojektion Lad V være et reelt vektorrum med indre produkt , , og lad u, v V med v 0 så er p u, v v v, v Vektorprojektionen af u på v . Hjælpelemma 6.1.6 [N] (ingen bevis) , , og lad u, v V med v 0 og lad p være Lad V være et reelt vektorrum med indre produkt vektorprojektionen af u på v . u p, v er ortogonale 2. u p u er et skalarmultiplum af v 1. Teorem 6.1.7 [N] (Cauchy-Schwarz uligheden) Lad V være et reelt vektorrum med indre produkt , , og lad u, v V . Da gælder u, v u v Og lighed gælder hvis, og kun hvis, u, v er lineært afhængige. Bevis Teorem 6.1.7 Hvis v 0 , da er u, v 0 u v og u, v er klart lineært afhængige. Hvis v 0 , så lad p være vektorprojektionen af u på v . u p, v er da ortogonale (ifølge lemma 6.1.6) og derfor er u p, p det også. Pythagoras giver da: u u p p 2 Hvilket giver at hvis man løser i forhold til p 2 2 2 og indsætter definitionen af p u u p p 2 2 2 u, v v 2 2 Som kan løses i forhold til u, v : u, v 2 u v u p v u v 2 2 2 Hvilket da giver u, v u v 27 2 2 2 2 Lighed gælder hvis, og kun hvis u p 2 0 u p . Lemma 6.1.6 siger at så er u et skalarmultiplum af V , og derfor lineært afhængige. 28 10 Ortogonalkomplement og projektion Def. Ortogonalkomplement Lad Y n være et underrum Y x n | xT y 0 y Y Kaldes ortogonalkomplementet til Y . Hjælpelemma 5.1.16 [N] A Matn,n så er Sø A N AT Teorem 5.1.17.1 [N] Lad S n være et underrum. Da er S også et underrum med dim S n dim S Bevis Teorem 5.1.17.1 Hvis S 0 , så er S n og dim S n dim s n 0 n . Hvis S 0 , lad x1 ,..., xr R n være en basis for S . Lad X x1 ,..., xr . Da er S Sø X . Derfor må S Sø X Lemma 5.1.16 siger da at S Sø X N X T . N X T er et underrum (ifølge proposition 2.1.8). Dimensionen udregnes: dim N X T antal søjler i X T rank X T n rank X nr n dim S 29 Teorem 5.1.17.2 [N] Hvis S 0 , S en basis for n n , og x1 ,..., xr er en basis for S og xr 1 ,..., xn er en basis for S , så er x1 ,..., xn . Bevis Teorem 5.1.17.2 Ifølge sætning 3.1.4 er det nok at vise at x1 ,..., xn er uafhængige. Antag at c1 x1 ... cr xr cr 1 xr 1 ... cn xn 0 Lad da y c1 x1 ... cr xr , z cr 1xr 1 ... cn xn . Så y S , z S . Så har vi y z 0 y z y, z S S 0 Dette betyder altså at: For y : c1 x1 ... cr xr 0 c1 0,..., cr 0 For w : cr 1 xr 1 ... cn xn 0 cr 1 0,..., cn 0 Tilsammen giver dette: c1 x1 ... cr xr cr 1 xr 1 ... cn xn 0 c1 0,..., cn 0 og derved er x1 ,..., xn uafhængige. 30 Teorem 5.5.7 [L] Lad S være et underrum af et indreproduktrum V med indre produkt Lad x1 ,..., xn være en ortonormalbasis for S og lad x V . Hvis n p ci xi i 1 Hvor ci xi , x Så p x S . Bevis Teorem 5.5.7 [Ændret lidt] Vi vil gerne vise at p x, y 0 y S Lad y a1 x1 ... an xn da: p x, y p x, a1 x1 ... an xn n p x, ai xi i 1 n ai p x, xi i 1 n ai p, xi x, xi i 1 n n ai c j x j , xi ci j 1 i 1 n n ai c j x j , xi ci i 1 j 1 n ai c1 ci i 1 0 31 , . 11 Ortogonale og ortonormale baser Def. Ortogonal mængde Lad V være et indre-produkt rum. Lad v1 ,..., vn V \ 0 . Hvis vi , v j 0, i j er v1 ,..., vn en ortogonal mængde. Teorem 5.5.1 [L] Lad V være et indre-produkt rum. Lad v1 ,..., vn V være en ortogonal mængde, så er v1 ,..., vn lineært uafhængige. Bevis Teorem 5.5.1 Antag at c1v1 ... cn vn 0 For j 1,..., n tag det indre produkt på begge sider af udregningen c1 v1 , v j ... cn vn , v j 0 Da vi , v j 0 når j i fås cj vj ,vj 0 cj vj 2 0 Da v j er en del af en ortogonal mængde er v j 0 , hvilket medfører at v j v1 ,..., vn er derved lineært uafhængige. Def. Basis Lad V være et F vektorrum, og lad v1 ,..., vn V v1 ,..., vn er en basis hvis 1. v1 ,..., vn er lineært uafhængige 2. v1 ,..., vn udspænder V Def. Ortonormal mængde En ortogonal mængde u1 ,..., un er ortonormal ui , u j ij hvor 1 i j 0 i j ij 32 2 0 . Derved må c j 0 og Teorem 5.6.1 [L] (Gram-Schmidt processen) , Lad V være et indre-produktrum med indre produkt . Lad x1 ,..., xn være en basis for V . Definer u1 1 x1 x1 Og definer u2 ,..., un rekursivt ved uk 1 1 xk 1 pk xk 1 pk for k 1,..., n 1 Hvor pk xk 1 , u1 u1 ... xk 1 , uk uk Altså den ortogonale projektion af xk 1 på span u1 ,..., uk . Da er u1 ,..., uk en ortonormal basis for span x1 ,..., xk for k 1,..., n . Specielt er u1 ,..., un en ortonormal basis for V . Bevis Teorem 5.6.1 Lad Sk span x1 ,..., xk for k 1,..., n . Induktion i k : Basis k 1 : Det er klart at u1 er en enhedsvektor med samme retning som x1 og at span u1 span x1 S1 . Induktionshypotese: Antag at u1 ,..., uk er en ortonormal basis for span x1 ,..., xk Sk for k n Induktionsskridt: Lad pk være projektionen af xk på Sk span u1 ,..., uk . Sætning 6.4.14 giver da pk xk 1 , u1 u1 ... xk 1 , uk uk Da pk Sk kan den skrives som en linear kombination af x1 ,..., xk . pk c1 x1 ... ck xk og xk 1 pk xk 1 c1 x1 ... ck xk 0 33 Da højresiden er en ikke-triviel ( c ' er er ikke alle 0) linearkombination af x1 ,..., xk 1 . Desuden er xk 1 pk span x1 ,..., xk 1 Sk 1 Ifølge sætning 6.4.14 så er xk 1 pk Sk og derved er xk 1 pk ui for i 1,..., k . Lad nu uk 1 xk 1 pk xk 1 pk . Så er u1 ,..., uk 1 en ortonormal mængde og er indeholdt i Sk 1 . Da u1 ,..., uk 1 er k 1 uafhængige elementer i rummet Sk 1 af dimension k 1 udgør de en basis, og u1 ,..., uk 1 ’er en ortonormal basis for Sk 1 . Induktionsskridtet er taget og resultatet dermed bevist. 34 12 Ortogonale og unitære matricer Def. Ortonormalt mængde En ortogonal mængde u1 ,..., un er ortonormal ui , u j ij hvor 1 i j 0 i j ij Def. Ortogonalmatrix En matrix Q Matn,n er en ortogonalmatrix hvis søjlerne i Q udgør en ortonormalbasis for n Teorem 5.5.5 [L] Q Matn,n er en ortogonalmatrix QT Q I Bevis Teorem 5.5.5 Lad os beregne QT Q i,j’te indgang. Q Q T ij Derfor gælder det at Q Matn,n 1 i j qiT q j qi , q j ij 0 i j er en ortogonalmatrix QT Q I . Def. Unitær En matrix U Matn,n er unitær, hvis søjlerne i U udgør en ortonormalbasis for n . Def. Hermitisk matrix En matrix A Matn,n er hermite’sk hvis A AH A T Teorem 11.1.9 [N] (Schurs teorem) Lad A Matn,n . Der findes en unitær matrix U Matn,n så U H AU Bevis Teorem 11.1.9 Beviser er ved induktion over n . Basis n 1 Trivielt idet alle 11 matricer er øvretriangulære. Induktionshypotese Vi antager at udsagnet gælder for alle matricer i Matn1,n1 35 . er en øvretrekantsmatrix. Induktionsskridt Lad A Matn,n og lad 1 være en egenværdi for A , med tilsvarende egenvektor v1 n . Vi kan arrangere at v1 1 . v1 kan udvides til en basis for n , og ved at anvende Gram-schmidt på denne basis, får vi en ortonormalbasis v1 ,..., vn for n . Lad U1 v1 ,..., vn Matn,n . U er da unitær ved konstruktion. Vi har da (vi piller først søjle af U1H AU1 ud) U1H AU1e1 U1H Av1 1U1H v1 1U1HU1e1 1e1 Vi kan altså skrive U1H AU1 1 0 r A1 Hvor 0 er en søjlevektor og r er en rækkevektor med n 1 indgange. Ifølge induktionshypotesen så eksisterer der en matrix C Matn1,n1 så C H A1C er øvre en øvretrekantsmtrix. Definer nu 1 0T U2 0 C Matricen U 2 er unitær da de sidste n 1 søjler udgør en ortonormal mængde, og hver for sig er ortogonale på den første søjle, som er en enhedsvektor. Så er produktet U U1U 2 også unitær. Vi vil vise at U H AU er øvre-triangulær. Da blokstørelserne i matricerne er ens kan vi bruge blok matrix multiplikation. U H AU U 2H U1H AU1 U 2 1 0T 1 r 1 0T H 0 C 0 A1 0 C r 1 0T 1 H 0 C A1 0 C rC 1 H 0 C A1C rC 1 0 B Denne matrix er øvre triangulær da B (fra induktionshypotesen) er det. 36 Teorem 11.1.10 [N] (Spektralsætning for hermite’ske matricer) Lad A Matn,n U Matn,n være hermite’sk. Så kan A diagonaliseres, dvs der findes en unitær matrix så U H AU Er diagonal med reelle diagonalindgange. Bevis Teorem 11.1.10 Ifølge Schurs sætning findes der en unitær matrix U Matn,n så U H AU T er en øvretrekantsmatrix. T er hermite’sk da: T H U H AU H U H AH U U H AU T Men t11 T 0 0 0 t1n t11 , TH t1n tnn 0 0 0 tnn Da må ti , j 0 for i j og da ti ,i ti ,i må ti ,i være reel. T er da en diagonalmatrix med reelle indgange. 37 13 Unitær diagonalisering Def. Unitær En matrix U Matn,n er unitær, hvis søjlerne i U udgør en ortonormalbasis for n . Def. Hermitisk matrix En matrix A Matn,n er hermite’sk hvis A AH A T Teorem 11.1.9 [N] (Schurs teorem) Lad A Matn,n . Der findes en unitær matrix U Matn,n så U H AU er en øvretrekantsmatrix. Bevis Teorem 11.1.9 Beviser er ved induktion over n . Basis n 1 Trivielt idet alle 11 matricer er øvretriangulære. Induktionshypotese Vi antager at udsagnet gælder for alle matricer i Matn1,n1 . Induktionsskridt Lad A Matn,n og lad 1 være en egenværdi for A , med tilsvarende egenvektor v1 n . Vi kan arrangere at v1 1 . v1 kan udvides til en basis for n , og ved at anvende Gram-schmidt på denne basis, får vi en ortonormalbasis v1 ,..., vn for n . Lad U1 v1 ,..., vn Matn,n . U er da unitær ved konstruktion. Vi har da (vi piller først søjle af U1H AU1 ud) U1H AU1e1 U1H Av1 1U1H v1 1U1HU1e1 1e1 Vi kan altså skrive U1H AU1 1 0 r A1 Hvor 0 er en søjlevektor og r er en rækkevektor med n 1 indgange. Ifølge induktionshypotesen så eksisterer der en matrix C Matn1,n1 øvretrekantsmatrix. Definer nu 1 0T U2 0 C 38 så C H A1C er øvre en Matricen U 2 er unitær da de sidste n 1 søjler udgør en ortonormal mængde, og hver for sig er ortogonale på den første søjle, som er en enhedsvektor. Så er produktet U U1U 2 også unitær. Vi vil vise at U H AU er øvre-triangulær. Da blokstørelserne i matricerne er ens kan vi bruge blok matrix multiplikation. U H AU U 2H U1H AU1 U 2 1 0T 1 r 1 0T H 0 C 0 A1 0 C r 1 0T 1 H 0 C A1 0 C rC 1 H 0 C A1C rC 1 0 B Denne matrix er øvre triangulær da B (fra induktionshypotesen) er det. Teorem 11.1.10 [N] (Spektralsætning for hermite’ske matricer) Lad A Matn,n U Matn,n være hermite’sk. Så kan A diagonaliseres, dvs der findes en unitær matrix så U H AU Er diagonal med reelle diagonalindgange. Bevis Teorem 11.1.10 Ifølge Schurs sætning findes der en unitær matrix U Matn,n øvretrekantsmatrix. T er hermite’sk da: T H U H AU U H AH U U H AU T Men 39 H så U H AU T er en t11 T 0 0 0 t1n t11 , TH t1n tnn 0 0 0 tnn Da må ti , j 0 for i j og da ti ,i ti ,i må ti ,i være reel. T er da en diagonalmatrix med reelle indgange. 40 14 Kvadratiske former Def. Kvadratisk form En kvadratisk form er en funktion f : n T givet ved f x x Ax , hvor A Matn,n . Grunden til den kaldes en kvadratisk form er: Hvis x1 x ... , A aij xn Så x1 a11 f ... x1 ... xn x an1 n a1n x1 ... ann xn a11 x1 ... a1n xn x1 ... xn ... an1 x1 ... ann xn x1 a11 x1 ... a1n xn ... xn an1 x1 ... ann xn Vi ser at i alle led indgår der mindst to x ’er, hvilket er grunden til at den kaldes en kvadratisk form. Eksempel 2 xy y 2 x 0 1 x y x 1 1 y y y 2 xy y 2 x y Teorem 11.3.3 (Hovedaksesætningen) Lad A Matn,n være symmetrisk, og lad 1 ,..., n være A ’s egenværdier, talt med multiplicitet. Der findes en rotationsmatrix R Matn,n og en tilsvarende rotation af koordinater u RT x så xT Ax 1u12 ... nun2 For alle x n 41 Bevis teorem 11.3.3 Ifølge spektralsætningen så findes der en ortonormal basis v1 ,..., vn for n bestående af A ’s egenvektorer. Så v1 ,..., vn er en ortonormal matrix. Lad v1 ,..., vn hvis det v1 ,..., vn 1 R v1 ,..., vn hvis det v1 ,..., vn 1 R er da en rotationsmatrix, hvis søjler er egenvektorer for A og som udgør en ortonormal basis for Vi har da 1 R AR T , n Hvor 1 ,..., n er egenværdierne til v1 ,..., vn , så 1 A R Vi har da for alle x RT n n 1 x Ax x R T T RT x n 1 u u n 1u12 ... n un2 T Def. Positiv definit Lad A Matn,n A er positiv definit hvis: x n \ 0 : xT Ax 0 Teorem 6.6.2 [L] Lad A Matn,n være symmetrisk. A er positiv definit A ’s egenværdier alle er positive. 42 hvor u R x T n . Bevis Teorem 6.6.2 Lad være en egenværdi for A med tilhørende egenvektor x . Da xT Ax xT x xT x x 2 Dette medfører xT Ax x 2 0 Det vil sige at enhver egenværdi er positiv. Da A symmetrisk kan A ifølge spektralsætningen diagonaliseres og der eksisterer en ortonormalbasis x1 ,..., xn for n hvor x1 ,..., xn er A ’s egenvektorer. n \ 0 så x kan skrives som en linear kombination af Lad x x1 ,..., xn x a1 x1 ... an xn Hvor ai x, xi for i 1,..., n og n a 2 i i 1 x (bare beregn x, x a1 x1 ... an xn , a1 x1 ... an xn ) 2 xT Ax a1 x1 ... an xn A a1 x1 ... an xn T a1 x1 ... an xn a1 Ax1 ... an Axn a1 x1T ... an xnT a11 x1 ... an n xn T n n a j ai i xTj xi i 1 j 1 a12 1 ... an2 n ai2 i i 1 x 2 n i 1 i x min i 2 0 T (Husk at xi x j 0 hvis i j 43 15 Lineære differentialligninger Def. Lineære differentialligninger Et generelt differentialligniningsystem skrives som x1' f1 x1 ,..., xn xn' f n x1 ,..., xn Et lineær differentialtligningssystem er på formen er et system hvor afbildningen f i er en lineær transformation. Den har da en standard matrix repræsentation A . I ikke-matrix form: x1' a11 x1 ... a1n xn xn' an1 x1 ... ann xn Hvor xi er en differentiabel funktion. Dette kan skrives kompakt på matrixform x ' Ax Hvis n 1 har vi ligningen x ' ax Som vil blive løst i næste bevis. Lemma 10.1.1 [N] Lad , a ligningen x ' x Har en entydig løsning z : t med z 0 a givet ved z t e a Bevis 10.1.1 Hvis c id et e c id t ect eidt ect cos dt i sin dt 44 d t e ect cos dt i sin dt ect d sin dt id cos dt dt ect c id cos dt i sin dt ect eidt ect eidt e c id t et Så et opfyldet x ' x men har startværdi 1. Vi ganger derfor et med a som er en konstant, som går t igennem hele beregningen ovenfor. Vi finder derfor ud af at z t e a er en løsning til x ' x med startværdi z 0 a . Er denne så entydig? Vi antager at der eksisterer en funktion y t som er en løsning til x ' x med startværdi y 0 a . t Vi kigger på funktionen e y t og vil se hvordan denne ændrer sig, vi differentierer altså d t e y t e t y t e t y ' t dt e t y ' t y t e t y t y t 0 t Så funktionen e y t er altså konstant. Derfor må vi indsætte hvilken som helst værdi for t og se hvad den giver: et y t e0 y 0 y 0 a Denne ligning løser vi i forhold til y t e t y t a y t a 1 t e y t aet z t Altså er z t den entydige løsning til x ' x med startværdi z 0 a . 45 Teorem 12.2.2 (Putzers algoritme) Lad A Matn,n . Lad 1 ,..., n være egenværdier for A , talt med multiplicitet. Lad P0 I og for k 1,..., n , Pk A I og definer k j j 1 n 1 Q t rk 1 t Pk k 0 Hvor r1 t e 1 og definer rk induktivt for k 2,..., n ved t t rk ek t e k s rk 1 s ds 0 Så gælder Q 0 I og Q ' t AQ t Q t A . Bevis Teorem 12.2.2 Vi ser at r1 t e1 0 1 k 1: rk t e k 0 0 e k s rk 1 s ds 0 0 Så n 1 Q 0 rk 1 0 Pk Pk I k 0 Vi ser at A kommuterer med A i I for i 1,..., n så den kommuterer med P0 ,..., Pn1 og derfor også med Q t . Dette giver os at Q t A AQ t . Vi vil nu gerne vise at Q ' t AQ t . Først vil vi differentiere rk for k 1 . t d rk t k ek t e k s rk 1 s ds e k t e k t rk 1 t dt 0 t k ek t e k s rk 1 s ds rk 1 t 0 k rk t rk 1 t Så vi har derfor at 46 n 1 Q ' t rk 1 ' t Pk k 0 n 1 k 1rk 1 t rk t Pk k 0 Og vi har at n 1 n 1 k 0 k 0 Q ' t AQ t k 1rk 1 t rk t Pk A rk 1 t Pk n 1 rk 1 t A k 1 I Pk rk t Pk k 0 n 1 rk 1 t Pk 1 rk t Pk k 0 rn t Pn 0 Det sidste gælder da Cayley Hamilton sætningen siger at A 1I ... A n I Pn 0 . Da Q ' t AQ t 0 Q ' t AQ t og sætningen er bevist. 47 16 Markov Processor Def. Markov Process En Markov Process er en sekvens af hændelser med følgende egenskaber 1. Sættet af tilstande er endeligt 2. Den næste tilstand afhænger kun af den forrige tilstand 3. Sandsynlighederne ved hændelsesskift er konstante Def. Sansynelighedsvektor En vektor x n med ikke-negative indgange og sådan at summen af dens indgange er 1 kaldes en sandsynlighedsvektor. Def. Stokastisk Matrix En matrix A Matn,n er en stokastisk matrix hvis hver af dens søjler hver er en sandsynlighedsvektor. Eksempel 0,8 x0 er en sandsynlighedsvektor. Den fortæller at 80% kører Lamboghini og 20% kører Fait. 0, 2 0,1 0, 2 A fortæller at 10% af dem der kører Lamboghini gør det også ved en hændelse, mens 0,9 0,8 20% af dem der kører Fait skifter til Lamboghini. 90% skifter fra Lamboghini til Fait og 80% af dem der kører Fait bliver ved med det. x1 Ax0 0,1 0, 2 0,8 0,9 0,8 0, 2 0,1 0,8 0, 2 0, 2 0,9 0,8 0,8 0, 2 0, 08 0, 04 0, 72 0,16 0,12 0,88 48 Lemma 10.2.4 [N] 1 Lad e ... 1 1. Lad x n . n med ikke-negative indgange, x er en sandsynlighedsvektor eT x 1 2. Lad A Matn,n være en matrix med ikke-negative indgange. A er stokastisk eT A eT Bevis Lemma 10.2.4 1: eT x x1 ... xn 1 hvis og kun hvis x er en sandsynlighedsvektor. 2: Skriv A a1 ,..., an . Så: eT A eT a1 ,..., eT an 1,...,1 eT Hvis og kun hvis a1 ,..., an er sandsynlighedsvektorer. Lemma 10.2.7 [N] Lad A Matn,n være en stokastisk matrix. Så er 1 en egenværdi for A . Bevis Lemma 10.2.7 Lad os beregne AT e AT e eT A T eT T 1e Vi ser at e er en egenvektor til 1 for AT . Derfor er pAT 1 0 . Men: p A 1 det A I det A I T det AT I p AT 1 Så pA 1 0 og derfor er 1 en egenværdi til A . 49 Teorem 6.3.4 [L] Hvis A er en stokastisk matrix med dominant egenværdi 1 1 så vil Markov rækken konvergere mod en steady-state vektor x . Bevis Teorem 6.3.4 Hvis A er diagonaliserbar: Lad y1 være egenvektoren til 1 . Lad Y y1 ,..., yn være en matrix der diagonaliserer A (Så A YDY 1 ) , så når k 1k Dk k n 1 0 nk E 0 Og hvis x0 er en sandsynlighedsvektor og c Y 1 x0 så: xk Ak x0 YDkY 1 x0 YDk c YEc Y c1e1 c1 y1 Så c1 y1 bliver steady-state vektoren. Hvis A ikke er diagonaliserbar kan dette stadig bevises, men dette er uden for pensum. 50
© Copyright 2024