Coëfficiënten matrix = matrix waarin de rechterkolom geen oplossing van de vergelijking is. 1. Lineair systeem = Stelsel van lineaire vergelijkingen

Vergelijkbare documenten
Coëfficiënten matrix = matrix waarin de rechterkolom geen oplossing van de vergelijking is. 1. Lineair systeem = Stelsel van lineaire vergelijkingen

Definities, stellingen en methoden uit David Poole s Linear Algebra A Modern Introduction - Second Edtion benodigd voor het tentamen Matrix Algebra 2

Samenvatting Lineaire Algebra, periode 4

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica. Tentamen Lineaire Algebra voor ST (2DS06) op , uur.

Matrices en Stelsel Lineaire Vergelijkingen

UITWERKINGEN 1 2 C : 2 =

Lineaire Algebra voor ST

Tentamen Lineaire Algebra 1 (Wiskundigen)

Lineaire Algebra Een Samenvatting

WI1808TH1/CiTG - Lineaire algebra deel 1

Lineaire Algebra voor ST

ONBETWIST ONderwijs verbeteren met WISkunde Toetsen Voorbeeldtoetsen Lineaire Algebra Deliverable 3.10 Henk van der Kooij ONBETWIST Deliverable 3.

Tentamen lineaire algebra voor BWI maandag 15 december 2008, uur.

Stelsels Vergelijkingen

Lineaire Algebra voor ST

TENTAMEN LINEAIRE ALGEBRA 1 donderdag 23 december 2004,

Bekijk nog een keer het stelsel van twee vergelijkingen met twee onbekenden x en y: { De tweede vergelijking van de eerste aftrekken geeft:

Lineaire Algebra voor ST

TECHNISCHE UNIVERSITEIT EINDHOVEN Faculteit Wiskunde en Informatica

Eindtermen Lineaire Algebra voor E vor VKO (2DE01)

Vierde huiswerkopdracht Lineaire algebra 1

Lineaire Algebra TW1205TI. I.A.M. Goddijn, Faculteit EWI 12 februari 2014

Lineaire Algebra voor ST

Vragen, samenvattingen en uitwerkingen Lineaire algebra 1 - UvA

Geef niet alleen antwoorden, maar bewijs al je beweringen.

1.1 Oefen opgaven. Opgave Van de lineaire afbeelding A : R 3 R 3 is gegeven dat 6 2, 5 4, A 1 1 = A = Bepaal de matrix van A.

Tentamen (2DE04) van Lineaire Algebra voor E, op vrijdag 27 januari 2012, ( )

Lineaire Algebra voor ST

Lineaire Algebra. Bovendriehoeks- en onderdriehoeks vorm: onder (boven) elke leidende term staan enkel nullen

Tentamen lineaire algebra voor BWI dinsdag 17 februari 2009, uur.

Lineaire Algebra voor ST

Stelsels lineaire vergelijkingen

FACULTEIT ECONOMIE EN BEDRIJFSKUNDE Afdeling Kwantitatieve Economie

11.0 Voorkennis V

Lineaire algebra I (wiskundigen)

Lineaire Algebra (2DD12)

Tentamen Lineaire Algebra

Kies voor i een willekeurige index tussen 1 en r. Neem het inproduct van v i met de relatie. We krijgen

Het oplossen van stelsels lineaire vergelijkingen Wiskunde 2, 2DM60 College 2b

CTB1002 deel 1 - Lineaire algebra 1

1 Eigenwaarden en eigenvectoren

Uitwerkingen tentamen lineaire algebra 2 13 januari 2017, 10:00 13:00

Hints en antwoorden bij de vragen van de cursus Lineaire Algebra en Meetkunde

Complexe eigenwaarden

Geef niet alleen antwoorden, maar bewijs al je beweringen.

1. Lineaire Vergelijkingen in Lineaire Algebra 2. Matrix Algebra 3. Determinanten 4. Vectorruimten 5. Eigenwaarden en Eigenvec.

Lineaire Algebra voor ST

Aanvullingen bij Hoofdstuk 8

Lineaire Algebra voor ST

Tentamen Lineaire Algebra B

CTB1002 deel 1 - Lineaire algebra 1

Lineaire Algebra voor W 2Y650

Antwoorden op de theoretische vragen in de examen voorbereiding

Lineaire Algebra voor ST

Uitwerkingen Lineaire Algebra I (wiskundigen) 22 januari, 2015

TENTAMEN LINEAIRE ALGEBRA 1A. maandag 16 december 2002, b. Bepaal een basis voor de rijruimte en voor de kolomruimte van A.

Vectorruimten en deelruimten

Matrixalgebra (het rekenen met matrices)

Lineaire Algebra voor W 2Y650

Basiskennis lineaire algebra

Lineair voor CT College 2a. Echelon vorm 1.2 Duncan van der Heul

Uitwerkingen tentamen Lineaire Algebra 2 16 januari, en B =

Lineaire Algebra (2DD12) Laatste nieuws in 2012

Inwendig product, lengte en orthogonaliteit in R n

Ruimtewiskunde. college. De determinant en lineaire afbeeldingen. Vandaag. De determinant van een matrix. Toepassing: oppervlakte en inhoud

UITWERKINGEN d. Eliminatie van a geeft d. Eliminatie van b,

Uitwerkingen tentamen Lineaire Algebra 2 16 januari, en B =

Tentamen lineaire algebra 2 18 januari 2019, 10:00 13:00 Uitwerkingen (schets)

Unitaire en Hermitese transformaties

3.2 Vectoren and matrices

Lineaire Algebra voor ST

Samenvatting. Lineaire Algebra 1 - Collegejaar Dictaat met verwijzing naar het boek. Disclaimer

6. Lineaire operatoren

Lineaire Algebra voor ST

Toepassingen op differentievergelijkingen

a) Bepaal punten a l en b m zó dat de lijn door a en b parallel is met n.

Eigenwaarden en Diagonaliseerbaarheid

EXAMEN LINEAIRE ALGEBRA EN ANALYTISCHE MEETKUNDE I. 1. Theorie

Linalg.nb 1. Werk het notebook aandachtig door en maak de (genummerde) oefeningen aan het einde van elke sectie. Succes!

Hoofdstuk 9. Vectorruimten. 9.1 Scalairen

4. Determinanten en eigenwaarden

Tentamen Lineaire Algebra UITWERKINGEN

Determinanten. , dan is det A =

Wiskundigen. Tentamen Lineaire Algebra 1. Donderdag 18 december 2008, a ( )

Examen Lineaire Algebra en Meetkunde Tweede zit (13:30-17:30)

Praktische informatie m.b.t. College Lineaire Algebra en Beeldverwerking Bachelor Informatica en Economie 2 e jaar Voorjaar semester 2013 Docent:

Inwendig product, lengte en orthogonaliteit

Tentamen Lineaire Algebra 2

Lineaire Algebra voor ST

Uitwerking Proeftentamen Lineaire Algebra 1, najaar y y = 2x. P x. L(P ) y = x. 2/3 1/3 en L wordt t.o.v de standaardbasis gegeven door

CTB1002-D2 Lineaire Algebra 2

Symmetrische matrices

Geadjungeerde en normaliteit

Praktische informatie. m.b.t. College. Lineaire Algebra en Beeldverwerking. Bachelor Informatica. 1e jaar. Voorjaar semester 2012

Meetkunde en lineaire algebra

PROEFEXAMEN LINEAIRE ALGEBRA dinsdag 22 november 2016

Hoofdstuk 3 : Determinanten

Lineaire Algebra en Vectorcalculus 2DN60 College 5.a Basis en dimensie

Eigenwaarden en eigenvectoren in R n

Lineaire afbeeldingen

Transcriptie:

Hoofdstuk 1 Vectoren dik gedrukt, scalairen normaal en Matrices in hoofdletters Vector = een pijl in R n. Een vector heeft een grootte en een richting. Dit in tegenstelling tot een coördinaat, dat slechts één punt in R n is, en dus ook geen grootte en richting heeft. Coëfficiënten matrix = matrix waarin de rechterkolom geen oplossing van de vergelijking is Vier manieren om een vergelijking op te schrijven: 1. Lineair systeem = Stelsel van lineaire vergelijkingen 2. Vector-vergelijking 3. Matrix vergelijking 4. Aangevulde matrix (belangrijkste, zo los je hem uiteindelijk op) Aantal oplossingen: Oneindig veel (consistent) 1 (consistent) Geen (inconsistent) Oplossingsverzameling: Bestaat uit basisvariabelen en vrije variabelen

Variabelen: x 1, x 2,, x p Basisvariabelen: x 1 = 3 vrije variabelen: x 1 vrij te kiezen 3 elementaire rij-operaties bij een matrix Vervangen Vermenigvuldigen Verwisselen Standaard rijvorm Alle niet-nul rijen boven de nulrijen Elk hoofdelement ( = pivot, meest linkse niet nul element) zit in een kolom rechts van het hoofdelement in de rij er boven Alle elementen in een kolom onder het hoofdelement zijn nullen Kanonieke (= gereduceerde) rijvorm heeft nog 2 eisen: Het hoofdelement in elke niet-nul rij is gelijk aan 1 Elk hoofdelement is het enige niet-nul element in een kolom Nulrij/nulkolom: rij/kolom met alleen maar nullen Algemene oplossing: Beschrijft alle oplossingen Parametrische omschrijving: In de algemene oplossing worden vrije variabelen als parameter gebruikt Verzameling: {v 1, v 2, v 3 } Opspansel: span {v 1, v 2,..., v p },met v 1, v 2,..., v p vectoren uit R n, is een verzameling van alle vectoren uit R n die je kunt schrijven als c1 * v 1 + c 2 * v 2 + + c p * v p. Dus: span {v 1, v 2,..., v p } = c1 * v 1 + c 2 * v 2 + + c p * v p b zit in span {v 1, v 2,..., v p } als je b kunt schrijven als = c1 * v 1 + c 2 * v 2 + + c p + v p. Dus om te kijken of b er in zit, moet c1 * v 1 + c 2 * v 2 + + c p * v p = b oplossingen hebben. Dit los je op door c1 * v 1 + c 2 * v 2 + + c p * v p = b te beschouwen als vectorvergelijking (en die is weer oplosbaar door hem als aangevulde matrix te schrijven). Logisch equivalente beweringen: (zie aantekening voor uitleg!) 1. Voor elke b in R m heeft de vergelijking Ax = b een oplossing 2. Elke b in R m is een lineaire combinatie van de kolommen van A 3. De kolommen van A spannen R m op 4. A heeft een pivot positie in elke rij Rekenregels: Als A een m x n matrix is, u en v vectoren in R n en c een scalair, dan A(u + v) = Au + Av A(cu) = cau Lineaire combinaties x 1 *a 1 Ax (= x 1 *a 1 + x 2 *a 2 + )

Homogeen systeem: Ax = 0 Altijd de triviale oplossing x = 0 Soms zijn er niet-triviale oplossingen voor x (dan is er een vrije variabele in de oplossingsverzameling van x aanwezig) o Als er niet-triviale oplossingen zijn, dan is het systeem lineair afhankelijk o Als er geen niet-triviale oplossingen zijn, dan is het lineair onafhankelijk Niet-homogeen systeem: Ax = b (DIT IS GEEN EERSTEGRAADS FUNCTIE!) Heeft de oplossing x = [x 1 ; x 2 ; x 3 ] (de puntkomma tussen de x-en betekent dat de x- en eigenlijk onder elkaar moeten staan, maar dat is geen efficiënt papiergebruik). Door op de plaatsen van x1, x2, x3 enz. de gevonden waarden (na het herleiden van de aangevulde matrix) in te vullen, kun je x herschrijven tot x = [x 1 ; x 2 ; x 3 ] = p + v h. Hierbij is v h de niet-triviale oplossing van het homogeen systeem. p is een vector die er voor zorgt dat de oplossing gaat gelden voor Ax = b. Geometrisch gezien zorgt p er voor dat de oplossingsverzameling verschoven wordt. v h wordt ook wel de homogene oplossing genoemd en p de particuliere oplossing. De volgende dingen kunnen lineair afhankelijk zijn (controleren m.b.v. aangevulde matrices): Matrix kolommen, als een kolom een veelvoud is van een andere kolom Homogene systemen: Ax = 0 Verzamelingen: { v 1, v 2,..., v p } = c1 * v 1 + c 2 * v 2 + + c p * v p = Ax = 0 o Verzameling S = { v 1, v 2,..., v p } is ook lineair afhankelijk als geldt: v 2 = c * v 1 Als één van de vectoren de nulvector is Als er meer vectoren zijn dan rijen in een vector (dus p>n) v p is een lineaire combinatie van andere vectoren (c1*v 1 + c 2 *v 2 = v p ) (lineaire combinatie, want bovenstaande is herschrijfbaar tot: Ax = b) Transformatie T T zet vector x om in vector b = T(x) Hierbij gaat x van R n naar R m R n is het domein van T R m is het codomein van T T(x) noemen we ook wel het beeld van x onder T,dus T(u) is het beeld van u onder T T(x) is het bereik van T, en dit is gelijk aan de verzameling van alle beelden onder T Injectief/surjectief: Een afbeelding T: R n -> R m heet surjectief (engels: onto ) als elke willekeurige vector b = T(x) in R m het beeld is van MINSTENS 1 vector x in R n. Een afbeelding T: R n -> R m heet injectief (engels: one-to-one ) als elke willekeurige vector b in R m het beeld is van HOOGUIT 1 vector x in R n.

Soorten transformaties: Lineaire transformaties: deze voldoen aan de volgende rekenregels: o T(u+v) = T(u) + T(v) voor alle u, v in het domein van T (in R n dus) o T(cu+dv) = c*t(u) + d*t(v) voor alle u, v in het domein van T (in R n dus) o T(c*u) = c*t(u) voor alle u alle c o T(0) = 0 Matrix transformaties (meest gebruikte). hiermee zet je met behulp van een matrix A de vector x om in b, T(x) = Ax = b. Matrix transformaties zijn lineaire transformaties. Soms heb je te maken met de transformatie T(x) = Ax en dan is A gevraagd, zodat je T(x) voor elke willekeurige x kunt berekenen. Dan is er in zo n vraag e 1, e 2 enz. gegeven met bijbehorende T(e 1 ), T(e 2 ) enz. Dan A= [ T(e 1) T(e 2) enz. ] A heet dan de standaard matrix voor de lineaire transformatie T. Uitgebreide uitleg en het bewijs van de stelling in de aantekening bij paragraaf 1.9 Geometrisch lineaire transformaties: dit zijn lineaire transformaties die beschreven worden in een assenstelsel. De volgende dingen kunnen gebeuren: o Een punt/vlak verschuiven (= schuiftransformatie). Dit kan met een willekeurige matrix A ( T(x) = Ax ), maar ook met een scalair r ( T(x) = r*x ). Als 0<r<1, dan wordt de afbeelding verkleind en dan spreek je van contractie. Als r>1, dan wordt de afbeelding vergroot en dan spreek je van dilatie. o Een punt verschuiven over een cirkel. Bijbehorende matrix op pagina 100. o Een punt spiegelen, bijvoorbeeld in de x-as, de y as, de lijn y=x, de lijn y=-x of de oorsprong. Bijbehorende standaardmatrices op pagina 101 van het boek. o Een vlak projecteren op de x-as of y-as. Bijbehorende standaardmatrices op pagina 103 van het boek.

Hoofdstuk 2: Matrix Algebra Rekenregels voor matrices: A + B = B + A (A + B) + C = A + (B + C) A + 0 = A r*(a + B) = r*a + r*b (r+s)*a = r*a + s*a r*(s*a) = (r*s)*a A*B B*A OPLETTEN DUS! A*B = [A*b 1 A*b 2 A*b 3 A*b n ] en B*A = [B*a 1 B*a 2 B*a 3 B*a n ] Alle kolommen A*b n van matrix A*B zijn dus lineaire combinaties (Ax = b = A*b n ) Als A is een m x n matrix en B een n x p matrix, dan is AB een m x p matrix A k = A*A*A* *A (bijv. A 3 = A*A*A) A(BC) = (AB)C A(B+C) = AB + AC (B+C)A = BA + CA r(ab) = (ra)b = A(rB) I m *A = A = A*I n LET OP DE VOLGORDE VAN A EN I en I m EN I n Als AB = AC, dan geldt NIET automatisch B=C Als A*B = 0, dan geldt NIET automatisch A=0 of B=0 A T is de transpose van matrix A. We zeggen dan dat we matrix A transponeren. In matlab is dit A. Hiermee worden de rijen kolommen en de kolommen worden de rijen. Ook hiervoor gelden een aantal rekenregels: (A T ) T = A (A+B) T = A T + B T (ra) T = r*a T (ABC) T = C T B T A T LET WEER OP DE VOLGORDE VAN A EN B De inverse matrix van A is A -1. Dit is een unieke matrix. Matrices die geen iverse hebben heten singulier. Matrices die wel een inverse hebben noemen we niet-singulier. Alleen vierkante matrices kunnen geïnverteerd worden (A is dus een n x n matrix) en de inverse matrix bestaat alleen wanneer A*A -1 = A -1 *A = I n De inverse matrix van A vind je door de matrix [A I] te herleiden. Het resultaat wordt dan [I A -1 ]. Nu kun je de oplossing zo aflezen uit het achterste gedeelte A -1. Voor een 2x2 matrix is er nog een andere manier: Als A = [a b dan A -1 = 1/(ad bc) * [d b waarbij (ad bc) = det A c d] -c a] (determinant van A) De matrix I n noemen we een identiteitsmatrix. Dit is een vierkante matrix met n rijen en n kolommen.

Rekenregels m.b.t. inverse matrices: Als Ax = b, dan x = A -1 b (alleen als A -1 bestaat) Als A inverteerbaar is, dan is A -1 ook inveerteerbaar (AB) -1 = B -1 A -1 (A T ) -1 = (A -1 ) T (Als A inverteerbaar is, dan is A T ook inverteerbaar) De volgende stellingen zijn logisch equivalent voor een n x n matrix A: A is een inverteerbare matrix A is rij-equivalent (~) aan I n (dus A is te herleiden tot I n ) A heeft n pivot posities (dit is een mooie controle op inverteerbaarheid) Ax = 0 heeft alleen de triviale oplossing (geen vrije variabelen in A) De kolommen van A vormen een lineair onafhankelijke verzameling The lineaire transformatie T(x) = Ax is injectief (one-to-one) Ax = b heeft minstens 1 oplossing voor elke b in R n De kolommen van A omspannen R n De lineaire transformatie T(x) = Ax beeld R n af in R n Er is een matrix C zodat CA = I Er is een matrix D zodat AD = I A T is een inverteerbare matrix Ook lineaire transformaties kunnen inverteerbaar zijn. Stel je transformeert x naar T(x) door A*x, dan kun je T(x) terug transformeren naar x door T(x)*A -1 (A*x*A -1 = x) Een elementaire matrix E is een matrix die ontstaat door één enkele elementaire rij-operatie uit te voeren op een eenheidsmatrix. Omdat rij-operaties omkeerbaar zijn (en E dus weer terug te schrijven is tot I) zijn alle elementaire matrices inverteerbaar. De inverse matrix E -1 is de elementaire matrix die E terug transformeert naar I. Het Leontief input-output model is een rekenmethode die in de economie wordt gebruikt om de verdeling te bepalen van geproduceerde goederen: Totale productie = Onderlinge vraag tussen bedrijven + vraag consument x = Cx + d Waarbij x de totale productie is, C de matrixvorm van de input-output tabel, en d de vraag van de consument. Vaak wordt deze formule herschreven tot de vorm: (I-C)x = d, waardoor x oplosbaar wordt. Hier staat namelijk gewoon Ax = b. Bij benadering geldt: (I-C) -1 I + C + C 2 + C 3 + + C m als de waarden in de kolommen van C kleiner zijn dan 1. Wanneer dan m naar oneindig gaat, nadert C m de nul-matrix. Voorbeeld Col A (Zie volgende bladzijde) en Rij A

Een apart type opspansel is de deelruimte. Een deelruimte H voldoet aan de volgende eisen: H bevat de nulvector Voor elke willekeurige u en v, de som u + v ligt in deelruitme H Voor elke willekeurige u en elke willekeurige scalair c, het product c*u ligt in H Een basis voor een deelruimte H van R n is een lineair onafhankelijke verzameling in H die H opspant. Dus je moet kijken of de gegeven kolommen lineair onafhankelijk zijn. Logisch equivalente beweringen voor vierkante (n x n) matrices: 1. Voor elke b in R m heeft de vergelijking Ax = b een oplossing 2. Elke b in R m is een lineaire combinatie van de kolommen van A 3. De kolommen van A spannen R m op (dus de kolommen zijn een basis voor R m ) 4. A heeft een pivot positie in elke rij 5. De kolommen van A zijn lineair onafhankelijk 6. A is een inverteerbare matrix 7. A is herleidbaar tot de identiteitsmatrix I m Col A ( Kol A in het Nederlands) is de kolomruimte (of de afbeelding / image) van matrix A. Dit is de verzameling van alle lineaire combinaties van de kolommen van A. Om te kijken of een bepaalde vector v in Col A voorkomt, los je op: Ax = v. Is dit systeem consistent, dan zit v in Col A. Col A: Als A = [a 1 a 2 ], dan Col A = Ax = Span{ a 1, a 2, } = x 1 *a 1 + x 2 *a 2 + De basis voor Col A bestaat uit de pivot kolommen van de originele matrix A, en dus niet van de gereduceerde vorm van A Nul A is de nulruimte (of kernel) van matrix A. dit is hetzelfde als de oplossingsverzameling van Ax = 0. Om te kijken of een bepaalde vector v in Nul A voorkomt, moet je A*v uitrekenen en kijken of dit de nulvector oplevert. Zo ja, dan zit v in Nul A, en anders niet. Nul A = de oplossingsverzameling van Ax = 0 De basis voor Nul A bestaat uit de vectoren in de oplossingsverzameling van Ax = 0, dus als Nul A = x 3 *u + x 4 *v, dan de basis voor Nul A = {u,v} Met de dimensie van een deelruimte H bedoelen we het aantal vectoren in de basis van H. De rang van matrix A is de dimensie van Col A (dus het aantal vectorkolommen in de basis van Col A). Dus: Rang A = dim Col A. Ook geldt voor m x n matrix A: dim Col A + dim Nul A = n

Hoofdstuk 3: De determinant De determinant van een matrix is een getal dat vertelt of een matrix inverteerbaar is of niet. Als det A (de determinant van A) gelijk is aan nul, dan is de matrix niet inverteerbaar. A heet dan singulier. Is de determinant ongelijk aan nul, dan is de matrix wel inverteerbaar, en is A niet-singulier. Omdat alleen vierkante matrices inverteerbaar kunnen zijn, hebben ook alleen vierkante matrices een determinant. Van een 1x1 en een 2x2 matrix kunnen we de determinant direct berekenen (Zie vorige bladzijde). Voor het berekenen van de determinant van grotere matrices bestaan 2 technieken: cofactor ontwikkeling naar een bepaalde rij of kolom. De matrix omschrijven tot de driehoeksmatrix. De determinant is vervolgens gelijk aan het product van de getallen in de hoofddiagonaal. Denk met omschrijven aan de rekenregels voor elementaire rij-operaties. Tekenafspraak: Driehoeksmatrices: Andere notatie: Enkele standaard determinanten: 1x1 matrix: det A = a (met A = [a]) 2x2 matrix: det A = ad bc Driehoeksmatrix: det A = Het product van de getallen op de hoofddiagonaal Identiteitsmatrix: det I n = 1 Matrix met twee dezelfde rijen: det A = 0 Matrix met nulrij: det A = 0 Matrix met nulkolom: det A = 0 det A T = det A det A -1 = 1/(det A) det (A*B) = (det A)*(det B) det (A 4 ) = (det A) * (det A) * (det A) * (det A) LET OP: det (A+B) (det A) + (det B) De determinant na elementaire rij-operaties: Als de matrix B ontstaat door een veelvoud van een rij van A op te tellen bij een andere rij, dan: det B = det A Als B ontstaat door twee rijen van A te verwisselen, dan: det B = det A Als B ontstaat door een rij van A met k te vermenigvuldigen, dan: det B = k * det A De determinant na kolom-operaties: Als de matrix B ontstaat door een veelvoud van een kolom van A op te tellen bij een andere kolom, dan: det B = det A. Als B ontstaat door twee kolommen van A te verwisselen, dan: det B = det A. Als B ontstaat door een kolom van A met k te vermenigvuldigen, dan: det B= k*det A.

De lineariteit eigenschap van een determinant houdt in dat je de determinant kunt zien als een lineaire functie van de kolom variabele. Verder geen idee wat je er mee kunt! Regel van Cramer: x i = det A i (b) / det A met A i (b) Matrix A waarbij de i-de kolom vervangen is door b. De geadjungeerde van Matrix A, genoteerd als adj A, is de matrix die uit cofactoren bestaat: (Vraag 11 van paragraaf 3.3 bestuderen!) In dit voorbeeld zijn de cofactoren voor linksboven en linksonder aangegeven. Let ook hier weer op de tekenafspraak! Enkele toepassingen van de determinant: De oppervlakte van een parallellogram is de absolute waarde van de uitkomst van de determinant van de vectoren van de 2 belangrijkste hoekpunten, dus: oppervlakte = det A Hierbij is A dus een 2 x 2 matrix. Voorwaarde is wel dat 1 van de 2 onbelangrijke hoekpunten de oorsprong is. Is dit niet zo, dan moet je het parallellogram verschuiven zodat hij in de oorsprong komt. Het volume van een blok wordt bepaald door de absolute waarde van de uitkomst van de determinant van de vectoren van de 3 belangrijkste hoekpunten, dus: volume = det A Hierbij is A dus een 3 x 3 matrix. Ook hier weer de voorwaarde dat 1 van de hoekpunten de oorsprong is.

Hoofdstuk 4: Vectorruimtes Een vectorruimte is een meer gangbare naam voor een deelruimte. Zodra je echter met 2 vectorruimten te maken hebt, waarvan de ene vectorruimte (bijv. H) binnen de tweede vectorruimte (bijv. V) valt, dan noemen we H een deelruimte van de vectorruimte V. Hierbij moet wel opgemerkt worden dat H alleen een deelruimte van een vectorruimte genoemd mag worden als geldt dat: De nulvector zit in H u + v zit in H cu zit in H Normaal gesproken ben je gewend om de coördinaten van een assenstelsel uit te drukken in (x,y). Dan werk je in vectorruimte R, met als basis { (1 0), (0,1) } voor R 2. Maar je kunt ook met vectoren werken, bijv. b 1 en b 2, die een opspansel of deelruimte vormen. Een punt binnen deze deelruimte druk je dan uit in bijv. 3b 1 en 2b 2. Als je het punt x uit wil drukken in vectoren, doe je dat met [x] B. Hierin is B de verzameling vectoren die de basis van de desbetreffende deelruimte vormen. Hieronder een voorbeeld: Dit kun je ook zien als een vector [x] B die uitgedrukt staat in coördinaten van de basis van deelruimte V. Wil je deze vector nu in omschrijven naar de vector x (in de gewone xycoördinaten), dan vermenigvuldig je [x] B met de change-of-coordinates matrix P B = [b 1 b 2 ]. In formule-vorm geldt: P B [x] B = x. Ook geldt: P B -1 x = [x] B Met deze injectieve lineaire transformatie kun je deelruimte V dus op R n projecteren. Een deelruimte H kan beschreven worden in één grote vector met een aantal variabelen, bijv. Als je een basis wilt weten voor deze deelruimte, moet je deze vector ontleden in losse vectoren per variabele. De basis voor de deelruimte is dan de verzameling lineair onafhankelijke vectoren die hier uitkomt. De basis voor H is [b 1 b 2 ]. Een tweede type deelruimte is P.. Hierdoor los je de constanten op die bij polynome functies horen ( 4.4 opg. 13). Een polynoom beschrijf je als volgt: 1 2 3. De graad van polynomen geven we aan met P n, net zoals je de dimensie van een

vector aangeeft met R n. P geeft dus ook een vectorruimte weer, net zoals R. De basis voor P n is [1 t t 2 t n ]. Een derde type vectorruimte is S. Dit zijn alle getallen afkomstig uit alle oneindige rijen. Een oneindige rij wordt ook wel een signaal gemoend. In de vectorruimte S komen dus meerdere oneindige rijen (signalen) voor. Een basis voor S met één signaal is {y k }. Een basis voor S met 3 lineair onafhankelijke signalen is {u k v k w k }. Om te testen of deze 3 signalen ook echt lineair onafhankelijk zijn, moet gelden dat c 1 u k + c 2 v k + c 3 w k = 0 voor álle k. Hierdoor kun je gewoon een matrix maken, de zogenaamde Casorati matrix, waarbij je net zo vaak k invult als dat je signalen hebt, bijv. Als deze matrix in elke rij een pivot positie heeft, weet je dat de signalen lineair onafhankelijk zijn. Een vierde type vectorruimte is de complexe ruimte C n. Deze bevat alle reële en complexe vectoren. In hoofdstuk 5 komt deze vectorruimte aan bod. Een vijfde type is de functieruimte F(R,R). Deze ruimte bevat alle functies f(x), waarbij f en x elementen zijn van R. In F(R,R) zitten bijvoorbeeld f(x) = x, f(x) = x 2, f(x) = e x enz. Naast F(R,R) zijn hier ook andere varianten van, zoals F(R,C), die een reëel getal x afbeeld op een complexe f(x). Een zesde type ruimte is de ruimte M k,n (C). Dit is de verzameling van alle complexe k x n matrices. Voor het analyseren van discrete data kun je gebruik maken van differentievergelijkingen. Een voorbeeld van een differentievergelijking is: 3y k+2 + 4y k+1 + 5y k = 3. Om dit op te lossen moet je onderscheid maken tussen de homogene en de particuliere oplossing. Voor de homogene oplossing vervang je het rechterlid door nul, en probeer je y k = r k. Dit geeft als resultaat: y k = c 1 *r 1 k + c 2 *r 2 k. Dit kun je ook zien als { r 1 k, r 2 k }, dus een basis voor S. Vervolgens moet je een particuliere oplossing zoeken. Hier is geen systematische aanpak voor, maar normaal gesproken staat er in het rechterlid een constante, en dan kies je als particuliere oplossing y p = K, en los je K op door invullen. (3K + 4K + 5K = 3 => K = 0,25)

Hoofdstuk 5: Eigenvectoren en eigenwaarden In hoofdstuk 1 heb je geleerd dat je een vector x met behulp van een lineaire transformatie een andere waarde kunt geven, namelijk Ax. Soms komt deze nieuwe waarde Ax neer op een veelvoud van de oorspronkelijke vector x, dus Ax = λx. Als dit zo is, dan is λ een eigenwaarde van matrix A, en de bijbehorende vector x is een eigenvector van A. Om te controleren of een willekeurige λ een eigenwaarde is van een matrix A, moet je de niettriviale oplossingen van de vergelijking (A-Iλ)x = 0 oplossen. Niet-triviale oplossingen bestaan als de matrix (A-Iλ) niet-inverteerbaar is, dus om de eigenwaarden van een matrix A op te sporen, moet je de karakteristieke vergelijking det(a Iλ) = 0 oplossen. Een matrix met determinant nul is namelijk niet inverteerbaar, waardoor Ax niet-triviale oplossingen krijgt (en dan bestaan er ook eigenvectoren). Het eerste gedeelte van de karakteristieke vergelijking, namelijk det(a Iλ), wordt het karakteristieke polynoom genoemd. Als de eigenwaarden eenmaal gevonden zijn, kunnen deze waarden voor λ weer ingevuld worden in de vergelijking (A-Iλ)x = 0. Hier komen nu altijd niet-triviale oplossingen uit. Deze niet-triviale oplossing bestaat uit een lineaire combinatie van scalairen en vectoren, die eigenvectoren worden genoemd. Deze lineaire combinatie is tevens een basis voor de eigenruimte, die we noteren met E λ (R), waarbij je voor λ de eigenwaarde invult en R staat voor de verzameling reële getallen. Eén matrix kan dus meerdere eigenruimten hebben, want voor elke eigenwaarde is er een eigenruimte. Bij één eigenwaarde kunnen dus meerdere eigenvectoren horen (als er 2 of meer vrije variabelen in de oplossingsverzameling zitten). BELANGRIJK: De nulvector telt niet mee als eigenvector, maar de eigenwaarde λ = 0 telt wel mee! De eigenwaarden van een driehoeksmatrix zijn de getallen op de hoofddiagonaal. Als matrix A lineair afhankelijke kolommen heeft, is λ = 0 een eigenwaarde. Een verzameling vectoren {v 1 v 2 v r } is lineair onafhankelijk als ze allemaal een unieke eigenwaarde hebben. Om te controleren of een bepaalde vector een eigenvector van matrix A is, dan moet je de matrix en de vector met elkaar vermenigvuldigen, en als het resultaat een veelvoud is van de vorige vector, dan weet je dat het om een eigenvector gaat. Naast de reële ruimte R n bestaat er ook een complexe ruimte C n. Sommige matrices die uit reële getallen bestaan hebben complexe eigenwaarden met bijbehorende complexe eigenvectoren in een complexe eigenruimte. Deze complexe eigenschappen kunnen worden gebruikt om bepaalde eigenschappen van geliniariseerde systemen te achterhalen, zoals periodieke beweging (bijv. de differentiaalvergelijking van de slinger bij dynamica I). TRUCJE ( 5.5 opgave 1): Vaak heb je te maken met simpele 2x2 matrices. Dit is een voordeel omdat je dan niet hoeft schoon te vegen met complexe getallen in de aangevulde matrix. De bovenste en onderste vergelijking zullen namelijk toch hetzelfde opleveren als er een in de 2x2 matrix een eigenwaarde bij wordt gezet. Hierdoor kun je de simpelste van de 2 vergelijkingen eruit pikken, en aan de hand daarvan de vector x bepalen. Als je van een matrix A een veelvoud A k moet berekenen is het handig om te kijken of je A kunt diagonaliseren. Dit houdt in dat je stelt dat A = PDP -1. Hierin is D de diagonale matrix

met alleen op de hoofddiagonaal getallen, en voor de rest allemaal nullen. P en P -1 zijn de matrices die ervoor zorgen dat D omgezet kan worden in A. Het voordeel van deze notatie is dat nu geldt dat A k = PD k P -1. Je hoeft dus alleen maar de getallen in D tot de macht k te doen. Een niet-diagonaliseerbare matrix noemen we defect. Een n x n matrix A is namelijk alleen diagonaliseerbaar als deze n lineair onafhankelijke eigenvectoren heeft. De bijbehorende eigenwaarden van deze eigenvectoren staan op de hoofddiagonaal van de matrix D. Op hun beurt staan de eigenruimten van deze eigenvectoren in de matrix P. Tenslotte wordt P -1 berekend door de inverse matrix van P te berekenen. Bij het analyseren van discrete dynamische systemen gebruik je een toestandsvector x k. In deze vector staan alle waarden van de te analyseren toestanden. In x k staan bijvoorbeeld het aantal uilen op tijdstip k (x 1 ) en het aantal ratten op tijdstip k (x 2 ), waarbij k het aantal maanden aangeeft. Met behulp van een formule voor x k kun je nu op elk tijdstip het aantal uilen en ratten berekenen. algemene formule: x k = c 1 (λ 1 ) k v 1 + c 2 (λ 2 ) k v 2 + + c n (λ n ) k v n. Hierin is c een constante die je kunt bepalen als x 0 gegeven is. Alle λ s zijn eigenvectoren van een matrix A, en de v s zijn de eigenvectoren die bij de eigenwaarden horen. De matrix A is zo opgesteld zodat geldt dat x k+1 = Ax k. Vaak wordt om het lange-termijn gedrag van zo n discreet systeem gevraagd. Dit betekent dat je moet bepalen wat er gebeurt als k naar oneindig gaat. Als dit gebeurt, dan zullen alle eigenwaarden die kleiner zijn dan 1 geen invloed meer hebben, want (0, ) k gaat dan naar nul. Hierdoor hou je meestal nog maar één term over, zodat je een simpele uitdrukking krijgt, zoals x k+1 = 3x k. Ten slotte moet hier opgemerkt worden dat dit een vorm van differentievergelijkingen zijn, bijvoorbeeld als x k = c 1 (λ 1 ) k v 1, dan geldt dat x k+1 = c 1 (λ 1 ) k+1 v 1 = λ 1 *c 1 (λ 1 ) k v 1 = λ 1 * x k. Dus y k = λ k is ook hier een oplossing, want y k+1 = λ k+1 = λ*λ k = λ*y k Bij het analyseren van continue data kun je gebruik maken van differentiaalvergelijkingen. De algemene oplossing hiervoor is t c c e c e e Hierbij noemen we e e e de eigenfuncties van A. Hierin is c een constante die je kunt bepalen als x 0 gegeven is. Alle λ s zijn eigenwaarden van een matrix A, en de v s zijn de eigenvectoren die bij de eigenwaarden horen. De matrix A is zo opgesteld zodat geldt dat x = Ax. Indien er complexe eigenwaarden ontstaan, krijg je ook een complexe e-macht in de oplossing. Deze kun je splitsen in een reëel deel en een complex deel, waarbij je het complexe deel vervangt: LET OP: als je te maken hebt met complexe oplossingen, hoef je bij 2x2 matrices alleen maar de eigenfunctie x 1 (t) op te lossen, want deze geeft als resultaat al een antwoord met 2 lineair onafhankelijke vectoren er in (namelijk een reëel en complex deel). Het oplossen van x 2 (t) heeft in dit geval geen nut. Dit komt omdat x 2 (t) de complex geconjugeerde is, en het oplossen van dit gedeelte levert geen nieuwe lineair onafhankelijke vectoren op. Het spoor (trace) van een vierkante n x n matrix A is de som van de getallen op de hoofddiagonaal, dus tr(a) = a 11 + a 22 + + a nn.

Hoofdstuk 6 ( 6.1 t/m 6.4): Orthogonaliteit Inproduct: Lengte van een vector: Een vector met lengte 1 heet een eenheidsvector (let op: e i heet óók een eenheidsvector) De afstand tussen twee vectoren is u-v : Uitproduct (= kruisproduct): Grafische voorstelling van het uitproduct: Hieruit volgt: De vector u x v is orthogonaal tot zowel u als v. Het uitproduct bestaat alleen voor vectoren in R 3. Als hoek θ nu 90 is, en u en v dus orthogonaal zijn, dan: u v = u v cos( ½π) = 0 Als hoek θ nu 0 is, en u en v dus parallel lopen, dan: u v = u v cos (0) = u v

Rekenregels voor in- en uitproduct: u v = v u (u + v) w = u w + v w (cu) v = u (cv) u u 0 (behalve als u = 0 natuurlijk) (c 1 *u 1 + + c p u p ) w = c 1 (u 1 w) + + c p (u p w) cu = c u u x v = -v x u (cu) x v = c(u x v) = u x (cv) u x (v + w) = u x v + u x w (u + v) x w = u x w + v x w u (v x w) = (u x v) w u x (v x w) = (u w)v (u v)w Enkele toepassingen van in- en uitproduct: De oppervlakte van een parallellogram dat wordt bepaald door u en v is gelijk aan de lengte van het uitproduct van u en v, dus opp. = u x v Het volume van een blok dat wordt bepaald door u, v en w is gelijk aan u (v x w) (De verticale strepen zijn absoluutstrepen) Een verzameling vectoren S = {u 1 u 2 u 3 u p } heet orthogonaal als het inproduct van 2 willekeurige vectoren uit deze verzameling altijd nul oplevert. Deze vectoren zijn dan lineair onafhankelijk en vormen een basis voor deelruimte S. Een verzameling vectoren heet orthonormaal als de verzameling orthogonaal is en als alle vectoren eenheidsvectoren zijn (dus met lengte 1). Een orthogonale verzameling kun je omzetten in een orthonormale verzameling door alle vectoren te delen door hun eigen lengte. De verzameling van vectoren z die orthogonaal zijn tot vlak W, waarbij W omspannen wordt door u en v, heet het orthogonaal complement van W en wordt genoteerd met W. Een vector x zit in W als x orthogonaal is ten opzichte van élke vector in de verzameling vectoren die W opspant. De ruimtes W en W zijn tevens deelruimten van R n. Als A een m x n matrix is, dan is het orthogonaal complement van de rijruimte van A de nulruimte van A, en het orthogonaal complement van de kolomruimte van A is de nulruimte van A T : (Rij A) = Nul A en (Kol A) = Nul A T Soms is het handig een vector te ontbinden in 2 orthogonale vectoren, bijv. een kracht F die je ontbindt in een Fx en een Fy, waarbij Fx en Fy orthogonale vectoren zijn. Vaak noemen we de oorspronkelijke vector y, de eerste vector u (de getallen in deze vector mag je vrij kiezen) en de tweede vector z (z staat dus orthogonaal op u). Nu is y dus te schrijven als lineaire combinatie van u en z, dus. De coëfficiënten c 1 en c 2 van deze (en elke andere) orthogonale basis vind je als volgt: en. Het eerste gedeelte van de formule van y noemen we de orthogonale projectie van y op u, symbool, dus. Het tweede gedeelte kun je nu ook gemakkelijk te vinden, want dit is gelijk aan, dus.

Als je te maken hebt met vectoren die maar 2 getallen bevatten, kun je de bijbehorende orthogonale vector nog sneller vinden. Je maakt dan namelijk de tweede vector door van de eerste vector het bovenste en onderste getal om te draaien, en vervolgens moet je één van die twee getallen met -1 vermenigvuldigen. Hierboven staat beschreven hoe je een vector y orthogonaal kunt projecteren op een vector u. Naast het projecteren op een vector, kun je ook op vlakken (of ruimtes met nog meer dan 2 diimensies) projecteren. Bijvoorbeeld het bovenaanzicht van een 3D pijl is een orthogonale projectie van een vector op een vlak. Hierbij beschrijf je het vlak als een opspansel van 2 orthogonale vectoren die de basis voor dit vlak vormen, dus Span{u 1 u 2 }. Stel dat je een vector y beschrijft als y = c 1 u 1 + c 2 u 2 + c 3 u 3, dan ga je deze vector splitsen in y = z 1 + z 2, met z 1 = = c 1 u 1 + c 2 u 2 (elementen uit W) en z 2 = c 3 u 3 (elementen uit W ). De bijbehorende constanten kun je weer uitrekenen met de formule. De orthogonale projectie van y op W wordt ook wel de beste benadering van y in W genoemd. Met behulp van het Gram-Schmidt proces kun je orthogonale bases vinden voor deelruimten in R n. Dit doe je door een paar keer achter elkaar een vector orthogonaal te projecteren (hierboven beschreven). Je begint met vector v 1 die je gelijkstelt aan de eerste gegeven vector x 1. Vervolgens ga je vector x 2 orthogonaal projecteren op vector v 1, waardoor je krijgt. De afstand tussen x 2 en noem je vector v 2. Het mooie hiervan is dat v 2 orthogonaal staat op v 1. Nu vormen v 1 en v 2 een deelruimte in R 2 (een vlak dus). Vervolgens pak je vector x 3 die je orthogonaal projecteert op het vlak met orthogonale basis {v 1 v 2 }. Hierdoor ontstaat. De afstand tussen x 3 en noem je vector v 3. Nu vormen de vectoren v 1, v 2 en v 3 een deelruimte in R 3 met orthogonale basis {v 1 v 2 v 3 }. Op deze manier ga je net zolang door totdat je alle vectoren x 1 x n gebruikt hebt. Op deze manier kun je dus van de deelruimte die opgespannen wordt door de vectoren x 1 x n een orthogonale basis vinden die bestaat uit de orthogonale vectoren v 1 v n. Vervolgens kan de orthogonale basis {v 1 v n } nog worden omgezet in een orthonormale basis {u 1 u n } door alle vectoren te delen door hun eigen lengte, dus Het Gram-Schmidt proces in formulevorm:...