Linjär Algebra 764G01: Kommentarer och läsanvisningar till

Linjär Algebra 764G01: Kommentarer och läsanvisningar till kursboken
Här följer kommentarer om sånt i boken som kan behövas förtydligas samt anvisningar om
vad som ska läsas, eller snarare vilka delar som inte måste läsas.
Allmänt gäller att ni ska känna till de flesta satser och propositioner (dessa ord betyder
egentligen samma sak, men ofta brukar man använda ordet sats för viktigare resultat). Ni
behöver kunna använda många av dem men det krävs inte att ni kan citera dem eller kunna
bevisa satserna, med undantag för en del som bör behärskas hyfsat av den som vill uppnå
VG-nivå. Det är ändå viktigt för alla att läsa bevisen för att förstå alla nya begrepp, resultat
och metoder! Dessutom är det viktigt att öva sig i och vänja sig vid att läsa matematik. Dock
är det vissa bevis som är för omfattande och invecklade för att platsa i denna kurs. Därför
finns i följande läsanvisningar för att underlätta självstudierna angivet vad som är okej att
hoppa över.
Det finns några tryckfel i boken, errata finns på bokens websida: http://linjaralgebra.se/. Där
finns även lösningar till flertal uppgifter.
Kapitel 1. Geometriska vektorer
Ett ganska omfattande mycket viktigt första kapitel. T.ex. ska vi längre fram i kursen se att
ortogonal projektion har med minsta kvadrat-metoden/linjär regression att göra. Poängen
med denna geometri är inte trianglar och linjer i rummet utan att ni ska ha en grund för att
senare kunna generalisera till högre-dimensionella ”rum” där mängder av data kan ses ligga
approximativt i s.k. hyperplan.
I kapitlet används trigonometri. Kompletterande material om detta delas ut. Det går också
bra att repetera i matteboken från grundkursen.
Exempel 1.12 kan lätt missförstås. Span {v} är linjen L som går genom origo och har riktningsvektorn v. Linjen som diskuteras i exemplet går genom två punkter A och B men kanske
inte genom origo. Denna linje är ”likadan” (det är ju också en linje!) som den genom origo
och kan (med ordvalet i boken) ”identifieras” med Span {v}.
Definition 1.24 av spegling kan kännas omständlig. Det räcker att man kan rita en förklarande
figur och räkna exempel utifrån den — detta visas på föreläsningen.
I avsnitt 1.4 om vektorprodukt behöver ni inte lära er om höger- och vänster-orientering och
bevisen till propositioner 1.31 och 1.32 ingår ej.
Obs. tryckfel på s. 45. Se bokens errata.
I avsnitt 1.6.3 härleds två formler för avstånd. Lär dig inte dessa utantill. Det är mycket
bättre att bara lära sig projektionsformeln och sedan använda den.
I lösningarna till uppgifter i boken används beteckningen v = (1 2 3)t med ett litet t, vilket
1
!
står för transponat och betyder helt enkelt v =
1
2 .
3
Läs avsnitt 4.1 om vektorer i högre dimensioner ihop med detta kapitel.
Det är många rekommenderade uppgifter till detta kapitel men det är inte nödvändigt att
räkna alla om man inte hinner. Några kan vara bra till repetition. Om du vill göra fördjupningsuppgifterna kan du hoppa över några andra istället.
Notation som används:
Längden, även kallad normen, av en vektor v betecknas ||v||. På föreläsningarna används |v|,
vilket också är en vanlig beteckning. (Enkelstreck används även för absolutbeloppet av ett
tal, t.ex. | − 5| = 5.)
R står för mängden av alla reella tal (=’vanliga tal’) och ∈ betyder tillhör. Alltså betyder
c ∈ R att c är ett reellt tal, det utläses ”c tillhör R” eller ”c (ligger) i R” . c ∈ R\{0}
betyder att c är ett reellt tal men inte talet 0.
För att beteckna mängder används ofta klammrar {...}, t.ex. mängden {4, 0, 6} som har de
tre elementen 0, 4 och 6. Ofta anges vilka elementen i mängden är med en beskrivning, som
i M = {cv : c ∈ R}. Detta är mängden av alla vektorer cv sådana att c är ett reellt tal.
Exempelvis vektorn −5v är ett av elementen M .
För dig som vill ha VG:
Bevisen till Prop. 1.16 och första punkten i Prop. 1.19 (dessa är enkla, eg. godkänt-nivå).
Prop. 1.32 använder vi inte i kursen men för VG bör man kunna dessa räkneregler. Beviset
ingår ej. Jämför gärna med Prop. 1.19 om skalärprodukt.
Bevis Sats 1.38.
Se även Prop. 4.5 enligt anvisningar för kapitel 4.
Kapitel 2. Matriser
Tidigt i kursen kommer vi gå igenom avsnitt 2.1 och 2.3 samt endast en sida av 2.2,nämligen
Def. 2.22 och Sats 2.24 om determinanter för 2 × 2-matriser. Resten av avsnitt 2.2 kommer
ihop med kapitel 6.
Ett begrepp som inte tas upp i boken men som ni måste känna till är spåret av en matris.
Spåret av en kvadratisk matris A skrivs Tr A (’Tr’ står för trace, ibland används ’Sp’ på
svenska). Spåret är det tal man får om man summerar elementen på diagonalen, dvs
Tr A =
n
X
aii
i=1
för en n × n-matris med element aij .
Ett mycket bra tydligt kompletterande material rekommenderas:
2
www.math.kth.se/∼kpetters/avsnitt2.pdf (länk finns på kurshemsidan)
Sida 1 till 8 + halva 15 till halva 16 motsvarar ungefär avnsitt 2.1. (Resten från sida 10 och
framåt kommer vi behandla senare i samband med kapitel 5.)
Kapitel 2 behandlar bara små matriser. Läs avsnitt 4.2 om matriser i högre dimensioner ihop
med detta kapitel. Eftersom vi inte kommer diskutera den sk induktionsprincipen behöver ni
inte bry er om den delen av beviset till proposition 4.27. Detsamma gäller för andra bevis
där man hänvisar till induktionsprincipen.
För dig som vill ha VG:
Bevis av räkneregler i Prop. 2.11 och 2.16 för 2 × 2 och 3 × 3-martiser, antingen så som det
görs i boken eller helt enkelt genom att skriva ut alla koordinater (vilket blir längre att skriva
men det går).
Se även Prop. 4.27 enligt anvisningar för kapitel 4.
Kapitel 3. Geometriska linjära avbildningar
De två villkoren i Definition 3.1 av linjär avbildning är viktiga. Funktioner som uppfyller
den första, f (u + v) = f (u) + f (v), sägs vara additiva. Funktioner som uppfyller den andra,
f (cv) = c f (v), är homogena.
Avsnitt 3.6 ingår först i samband med kapitel 6.
Från avsnitt 3.7 ingår endast Definition 3.35 av affin avbildning. En sådan funktion får man
om man först tar en linjär avbildning och sedan lägger till en konstant vektor. Bra att känna
igen när ni stöter på sådana uttryck senare.
Läs även avsnitt 4.3 om linjära avbildningar i godtycklig dimension i samband ihop med
kapitel 3.
För dig som vill ha VG:
Bevis Prop. 3.22.
Se även Sats 3.11 och 4.33 enligt anvisningar för kapitel 4.
Kapitel 4. Rummet Rn
Här generaliseras det som gjorts i kapitel 1-3 i planet och rummet till att gälla vektorer,
matriser och linjära avbildningar i högre dimensioner/med fler element. Vi går igenom detta
kapitel parallellt med de föregående kapitlen.
För dig som vill ha VG:
Bevis Prop. 4.5. Det är många punkter i denna proposition men om du kan bevisa några av
3
punkterna (förstår vad du gör — inte bara skriver av) i så kan du klara av de andra också.
Kunna bevisa Prop. 4.27 för två och för tre matriser (d.v.s. r = 2 eller r = 3) och se att det
generaliserar till godtyckligt antal matriser. Se början av bokens bevis (induktion behövs ej.)
Om f (v) = Av, bevisa att A = (f (e1 ) f (e2 ) · · · f (en )) genom att ”stoppa in” en allmän
vektor v i f . Se beviset av Sats 4.33 (Bassatsen). Notera att det är en generalisering av Sats
3.11 så titta gärna på det beviset först!
Kapitel 5. Linjära ekvationssystem
I en del av problemen vi sett hittills i kursen har vi löst system av linjära ekvationer. Här
ska vi se hur man kan lösa dem på ett strukturerat sätt. Vi gör det för hand för små system,
men samma metod används för större system och lösas med hjälp av dator.
Det mesta ingår, men det kapitlet innehåller lite väl många propositioner och satser. Det
väsentliga är att ni kan lösa ett linjärt ekvationssystem och att ni utifrån räkningen kan se
vilken typ av lösning det blir och vilka andra möjligheter som skulle kunna ske (det klarnar
när vi räknar!). Det är alltså inte viktigt att kunna alla satser. De viktigaste kommer tas upp
på föreläsningen.
Följande är okej att hoppa över:
Sidorna 165-167, bevis till Sats 5.28, samt Följdsats 5.29 och dess bevis.
Ett mycket bra tydligt kompletterande material rekommenderas starkt:
www.math.kth.se/∼kpetters/avsnitt1.pdf (länk finns på kurshemsidan)
Börja gärna läsa detta (motsvarar ungefär avsnitt 5.1-5.5). I alla räkningar i här markeras det
tydligt vilka radoperationer som utförs. Dessutom är en linje utritad som skiljer koefficientdelen från konstant-vektorn. Ta för vana att göra så!
När du läser i kursboken, rita i totalmatriserna in ett streck mellan koefficient-delen från
konstant-vektorn så blir det lättare att följa.
Jag kommer förespråka att man arbetar på totalmatrisform några steg längre än vad som
görs i exemplen i boken, vilket är mer likt det kompletterande materialet.
Nu är det även dags att räkna matrisinverser vilket man även kan läsa om i
www.math.kth.se/∼kpetters/avsnitt2.pdf
från sida 10 och framåt (detta är samma text om matriser som hänvisades till i kapitel 2.)
Avsnitt 5.6 behandlar om minsta kvadrat-metoden/linjär regression är mycket viktigt för er
utbildning! Eftersom det är kortfattat i boken ingår även följande text:
www.math.kth.se/∼lhakan/Nr8april4.pdf (länk finns på kurshemsidan)
För dig som vill ha VG:
Bevis prop. 5.2 och sats 5.33.
Bevis för att matrisen At A är kvadratisk och symmetrisk; beviset finns i det kompletterande
materialet.
4
Kapitel 6. Determinant
Börja med att gå tillbaka till s.70 och repetera om determinanten för 2 × 2-matriser.
På s.73 införs determinanten för 3 × 3-matriser och beräkning med Sarrus regel. Metoden
med ”triangulering” i kapitel 6 fungerar alltid, men ibland är det lättare att använda Sarrus
regel. Tyvärr kan den inte generaliseras enkelt till större matriser.
I avsnitt 6.1 ges den allmänna definitionen av determinanten och tre viktiga resultat (Prop.
6.3, Prop. 6.4, Sats 6.5).
Avsnitt 6.2 härleder en summa-formel för determinanten. Detta ingår inte i kursen, förrutom
att man ska ha sett resultatet Sats 6.14 eftersom denna tas som definition i många framställningar av linjär algebra. Formeln nämns på föreläsningen.
Avsnitt 6.3 innehåller några resultat som är rätt enkla att lära sig:
Börja läs vid Prop. 6.17 (ej bevis) och exempel 6.18, samt Prop. 6.19 (ej bevis) och exempel
6.20. Hoppa till Sats 6.22 (ej bevis) och Prop. 6.23 med bevis och exempel 6.24.
Determinanter anger volym-förändringen som linjära avbildningar ger. Läs avsnitt 3.6.
Slutligen vill jag nämna att det finns en annan vanligt förekommande metod för beräkning
av determinanter, s.k. ”utveckling efter rad rad eller kolonn”, vilken vi dock inte har tid att
gå igenom. Att kunna överföra en matris på triangulär form räcker.
För dig som vill ha VG:
Bevis prop. 6.3 och sats 6.23.
En tillräckligt bra förståelse av avsnitt 6.1 för att kunna lösa de uppgifter som är listade
kursivt i kursplaneringen.
Kapitel 7. Baser
Detta är ett omfattande kapitel så räkna med att det tar lite extra tid att läsa ordentligt.
Vissa delar är onödigt generella för oss så vi bortser från dem; se nedan.
I en allmän bas behöver vektorerna varken vara ortogonala eller normerade. Men förutom i
enstaka uppgifter kommer vi endast använda ON-baser när vi räknar i denna kurs.
Prop. 7.12 och Sats 7.13 ingår inte.
Trots att Sats 7.14 är viktig och enkel att formulera är beviset lite för avancerat för oss. Men
den som är intresserad kan gärna göra ett försök.
Formeln för koordinatbyte i ekvation (7.1) är viktig: x̄ = F x̄F .
Notera att matrisen för standardbasen blir identitetsmatrisen, E = I = (ē1 ē2 . . . ēn ), så att
koordinaterna x̄E i denna bas utifrån formeln blir just x̄ som de borde: x̄ = E x̄E = x̄E .
5
Sats 7.19 och därmed s.214 till halva s.215 behövs inte.
Definition 7.21: bara den sista halvan ingår (gäller avbildningar med kvadratiska matriser).
Ej Sats 7.22 samt exempel 7.23. Dock ska vi använda specialfallet av Sats 7.22 för linjära
avbildningar med kvadratiska matriser. Vi tar upp det på föreläsningen.
Ej exempel 7.3.
Utöver det om ON-baser i boken ska vi gå igenom den s.k. Gram-Schmidt-metoden. Den
används för att bestämma en ON-bas utifrån vektorer som inte är ortogonala eller normerade.
Tre sidor om detta delas ut vid föreläsningen. Det finns också tillgängligt på kurshemsidan.
För dig som vill ha VG:
Bevis till Prop. 7.4 och Prop. 7.34.
Kapitel 8. Egenvärden och egenvektorer
Egenvärden och egenvektorer är mycket centralt i linjär algebra och en stor del av kursen
hittills är bakgrundskunskap till detta kapitel. Ändå brukar det inte uppfattas som särskilt
svårt då man till stor del kan följa en standardlösningsgång till de flesta uppgifterna.
När ni senare ska använda egenvärdesteori för att diagonalisera kommer ni troligen endast
ha symmetriska matriser vilka alltid är diagonaliserbara (enl. Sats 8.22). Så det är dessa vi
fokuserar på.
När egenvärden av en 3 × 3-matris ska bestämmas får man tredjegradsekvationer. För att
lösa dessa kan man behöva använda polynomdivision; repetera vid behov i det utdelade
extramaterialet (om trigonometriska funktioner och polynomekvationer).
Ett resultat som inte finns i boken men som är bra att kunna:
Om A = P DP −1 och D är diagonal med egenvärdena λi på diagonalen så gäller
Tr A = Tr D =
Pn
i=1 λi
.
En första enkel kontroll av egenvärden är därför att se om deras summa är lika med spåret
av A (= summan av diagonalelementen i A).
För dig som vill ha VG:
Bevis Prop. 8.6 (det är enkelt så alla borde kunna visa det).
Bevis av Prop. 8.24 i specialfallen n = 2, 3, 4 (generaliseringen bör sedan vara uppenbar)
samt för inversen (n = −1).
6
Kapitel 9. Grafer och grannmatriser
Kapitel 9 ingår inte i kursen. Men en del av det är relativt lättläst så ta gärna en titt på
detta om du är nyfiken på nya områden där matriser används.
Kvadratiska former
Vad en kvadratisk form är och hur den diagonaliseras behöver ni veta när ni senare läser
multivariat statistik. Som litteratur tar vi två texter av Armin Halilovic (de finns tillgängliga
via länk på kurshemsidan). Teorin introduceras kortfattat följt av några exempeluppgifter
med fullständig lösning.
I texten www.syd.kth.se/armin/ALLA KURSER/SF1624/KVADRATISKA FORMER.pdf diagonaliseras kvadratiska former. Sista två sidorna om värdemängden är mindre väsentligt.
I texten www.syd.kth.se/armin/ALLA KURSER/SF1624/ANDRAGRADSKURVOR.pdf används diagonalisering av kvadratiska former för att se hur en andragradskurva ser ur. Uppgift 1 är
viktigast och ni ska känna igen ellipsens ekvation. I Uppgift 3 diagonaliserar man på samma
sätt, men här blir det en hyperbel och ni behöver inte känna igen eller kunna rita den.
Här följer några termer som ni ska känna till (men som tyvärr inte nämns i texterna):
En kvadratisk form (eller dess matris) med . . .
(i) endast positiva egenvärden (λ > 0) är positivt definit.
(ii) endast icke-negativa egenvärden (λ ≥ 0) är positivt semidefinit.
(iii) både positiva och negativa egenvärden är indefinit.
(iv) endast icke-positiva egenvärden (λ ≤ 0) är negativt semidefinit.
(v) endast negativa egenvärden (λ < 0) är negativt definit.
Det är de positivt definita som dyker upp i multivariat statistik.
7