Lineare algebra in the algebraic context (Q2401682)
From MaRDI portal
scientific article
| Language | Label | Description | Also known as |
|---|---|---|---|
| English | Lineare algebra in the algebraic context |
scientific article |
Statements
Lineare algebra in the algebraic context (English)
0 references
4 September 2017
0 references
Dieser Buch wendet sich an Studenten im ersten Studienjahr in den Ingenieur- und Naturwissenschaften. Es behandelt den klassischen Teil der linearen Algebra, hauptsächlich aus klassisch algebraischer Sicht von ungefähr 1930. Moderne Aspekte der Matrizentheorie spielen eine untergeordnete Rolle. Das Buch mit 570 Seiten und 970 g Gewicht umfasst 9 Kapitel von Logik und algebraischen Grundstrukturen bis zu Anwendungen. Es enthält nur 83 Übungsaufgaben auf 29 Seiten, jeweils an jedem Kapitelende. Die e-Buch Version unterscheidet sich praktisch nicht von der pdf Datei des gedruckten Buches bis auf einen Seitenstreifen für Anmerkungen des Lesers und leicht verbesserten Suchmöglichkeiten.\newline In Kapitel 2 wird die Zeilenreduktion auf eine reduzierte Zeilenstufenform im Detail erklärt. Verbunden mit Spaltenumformungen wird nach 63 Seiten die Determinante einer quadratischen Matrix mittels Reduktion auf Dreiecksgestalt als Produkt der auftretenden Diagonalelemente definiert. Diese wird dann zur klassischen Determinanten Definition mit allen ihren Eigenschaften erweitert. Die Cramersche Regel zur Lösung von linearen Gleichungen und die Smith Normalform schließen dies 120 Seiten lange Kapitel ab.\newline Kapitel 3 behandelt Vektorräume, ihre Basen und den Basiswechsel. Die Erkenntnisse aus Kapitel 2 über Rang, Bild und Kern einer Matrix werden hier zunächst vollkommen vergessen und alles wird von Neuem, diesmal mit Hilfe von Vektoren erklärt, mit all denselben Umformungen wie zuvor. Erst nach 37 Seiten mühevoller Arbeit mit der auf Logik basierenden Definition der linearen Abhängigkeit löst sich der Knoten auf S. 201 mit dem Hinweis, dass das alles schon aus Kapitel 2 bekannt sei. Dies Wissen wäre an sich trivial, wenn man die Anzahl und Lage der Pivots der aus den Vektoren geformten Spaltenmatrix ansähe. Pivots werden auf S. 114 und gleich danach zum ersten Mal erwähnt und sonst nur noch bei Determinanten. \newline Die Erklärungen zu Koordinatenvektoren und zum Basiswechsel in Kapitel 4 würden ebenso viel einfacher und vor allem intuitiver sein, wenn die Darstellungen auf S. 214--223 auf Matrizen beruhten. Das Kapitel 4 behandelt lineare Abbildungen, Homomorphismen und den Homomorphiesatz. Der Letztere wäre bestens erklärt als eine Aufteilung der Spalten der Zeilenstufenform einer Matrix in Pivotvektoren und in freie Vektoren, hier wird dies nur vektoriell-algebraisch verbrämt. Dies kann den Studenten aber erst klar werden, wenn am Ende dieses Kapitels mit elementaren Zeilen- und Spaltenumformungen Beispiele durchgerechnet werden. Aber das `warum' und die Verbindung zum grundlegenden Stoff aus Kapitel 2 wird nirgends erklärt.\newline Kapitel 5 bringt uns Vektorräume mit innerem Produkt, mit äußerem Produkt, Spatprodukt und Orthogonalität für Matrizen und Vektoren. Es wird hier aber nur die unstabile klassische Version von Gram-Schmidt entwickelt. \newline Kapitel 6 handelt von Eigenwerten und Eigenvektoren, wieder in klassischer Weise mittels charakteristischem Polynom, wie es 1839 von Cauchy mit Determinanten eingeführt wurde. Dazu muss man Polynomwurzeln erraten und den Fundamantalsatz der Algebra von Gauss (1799) aus Kapitel 1 kennen. Moderner und hilfreicher wäre es gewesen, das Minimalpolynom einer \(n\) x \(n\) Matrix \(A\) mittels der linearen Abhängigkeit von Krylov Vektoren \(b, Ab, Ab^2,\dots, A^nb\) zu ermitteln.\newline Kapitel 7 behandelt dann nicht diagonalisierbare Matrizen und ihre Jordanschen und Begleitmatrix-Normalformen. Wo steht dieses Lehrbuch im Rahmen unserer heutigen Erkenntis? Gauss'sche Zeilenumformungen gab es schon vor Jahrtausenden in Babylon, Ägypten und dann auch China. Matrizen als Datenspeicher wurden von Leibniz und Seki 1683 zum ersten Mal benutzt. Cauchy brachte uns die Idee des charakteristischen Polynoms einer Matrix. Dies führte danach dazu, dass die meisten Erkenntnisse über Matrizen im 19ten Jahrhundert als Sätze über Determinanten formuliert wurden. Sylvester bevorzugte Matrizen und seit 1850 gab es ein hin und her, welche Begriffsbildung besser dem Stoff entspricht. Im frühen zwanzigsten Jahrhundert wurden Vektorräume populär durch die Entwicklungen bzgl. unendlich dimensionaler linearer Räume und der Funktionalanalysis. Vor circa 100 Jahren wurde auch die Matrizen- und Determinantentheorie veralgebraisiert und bekam den Namen lineare Algebra. Mit der Jordanschen Normalform vom Anfang des 20sten Jahrhunderts schien die Entwicklung dieses Gebietes als Forschungsbereich abgeschlossen zu sein, ähnlich wie für die elementare Differentialrechnung. Und beide Gebiete wurden zum Lehrstoff unserer ersten Semester. Jeder hat sie gelernt, jeder beherrscht sie und jeder kann ein Buch darüber schreiben, ob Fachmann oder nicht. Dies sehr zum Schaden für unsere Studenten und speziell für die lineare Algebra, ein Gebiet, das sich immer noch und täglich erweitert. Wie reiht sich dieses Buch in die Historie ein? Teils nimmt es diesen, teils einen anderen Weg. Das Buch fängt mit konkreter Matrizenrechnung an und geht dann zur Vektorrechnung über. Es beweist (fast) alles noch einmal, ohne einen Bezug zum schon Bekannten herzustellen. Fast alle Beispiele im Buch werden mit Zeilen- und Spaltenumformungen gelöst. Das Buch bleibt auf diesem Stand im Spagat von vor etwa 90 Jahren stehen. Die letzen 70 Jahre der Entwicklung unserer Erkenntnisse über Matrizen im Computer-Zeitalter werden nicht einbezogen. Was ist falsch im Buch, was fehlt? (1) Der Begriff `schwach besetzt' oder `sparse' wird hier zwar benutzt, aber nicht im richtigen Zusammenhang. Die Faktoren einer vollen LU-Zerlegung sind niemals dünn besetzt, denn sie haben beide \(n^2/2\) von Null verschiedene Elemente. Schwach besetzt sind z.B. `unvollkommene LU Zerlegungen' mit nur 5 oder 10 von Null verschiedenen Nebendiagonalen. Das Wort `sparse' wird heute nur für riesige Matrizen angewandt, die ein kleines Vielfaches der Zeilenanzahl \(n\) einer \(n\) mal \(n\) Matrix an von Null verschiedenen Elementen enthalten. (2) Eigenwerte und Vektoren zeigen die Struktur einer Matrix, und nicht wirklich eine schwach besetzte Form der Matrixabbildung, wie es im Kapitel 6 steht. (3) Die Cholesky-Zerlegung kann auch zum Beweis der Definitheit einer beliebigen symmetrischen oder selbstadjugierten Matrix benutzt werden, darauf wird aber nicht hingewiesen. (4) Die Gauss'sche Normalen-Gleichung \(A^TAx = A^Tb\) (1823, Brief an Gerling) (S. 389) löst das grundlegende lineare Problem \(Ax = b\) mit oft viel größerer Ungenauigkeit, Taussky (1950). (5) Die Cramerscher Regel zum Lösen von linearen Gleichungen ist unstabil und sehr zeitintensiv \((O(n!)\) Schritte statt \(O(n^3/3)\) für Gauss). (6) Es fehlen die orthogonalen Methoden der QR-Zerlegung. Givens Rotationen werden nur im zwei- und dreidimensionalen Raum eingeführt und Householder-Transformationen nur kurz (S. 393) in 12 Zeilen angetippt, aber niemals angewandt. (7) Deshalb kann die Singulärwert-Zerlegung von Matrizen nicht behandelt werden, die unsere Suchmaschinen im Internet milliardenfach in jeder Stunde antreibt. (8) Optimale Lösungen unlösbarer linearer Probleme werden nicht behandelt. (9) Verallgemeinerte Inverse existieren in diesem Buch gar nicht. (10) Bis inklusive S. 87 gibt es nur Begründungen mit dem `quod erat demonstrandum' Endquadrat \(\square\). Ab S. 89 heißen diese dann Beweise und haben auch ein \(\square\) am Ende. In diesem Buch wird viel Platz und Zeit mit zweifachen Entwicklungen verbracht. Eine einheitliche Nutzung von Matrizen würde das Buch an den heutigen Erkenntnisstand anpassen. Dies würde es sehr verbessern, unseren Studenten helfen, ihr Studium zu vereinfachen und es inhaltlich auf den heutigen Stand bringen. Wer braucht Vektoralgebra, wenn man Vektoren als Spalten einer Matrix auffassen und durchgängig mit Gauss bearbeiten kann und das auch hier in den Beispielen immer wieder tut.
0 references
linear algebra
0 references
matrix
0 references
inner product
0 references
determinant
0 references
Cramer's rule
0 references
textbook
0 references
canonical form
0 references
exterior product
0 references
vector space
0 references
Gram-Schmidt method
0 references
Jordan canonical form
0 references
LU-factorization
0 references
eigenvalue
0 references
eigenvector
0 references
sparse matrices
0 references
Cholesky decomposition
0 references
QR factorization
0 references
Householder transformation
0 references
singular value decomposition
0 references
Givens rotation
0 references