Logo - springer
Slogan - springer

Springer Spektrum - Mathematik - Arens et al. | Arens et al. | Spektrum Akademischer Verlag

Zusatzinformation zu Teil III

Teil III: Lineare Algebra 

Lineare Algebra
14 Lineare Gleichungssysteme – Grundlagen der Linearen Algebra
15 Vektorräume – Schauplätze der Linearen Algebra
16 Matrizen und Determinanten – Zahlen in Reihen und Spalten
17 Lineare Abbildungen und Matrizen – abstrakte Sachverhalte in Zahlen ausgedrückt
18 Eigenwerte und Eigenvektoren – oder wie man Matrizen diagonalisiert
19 Analytische Geometrie – Rechnen statt Zeichnen
20 Euklidische und unitäre Vektorräume – Geometrie in höheren Dimensionen
21 Quadriken – ebenso nützlich wie dekorativ
22 Tensorrechnung – geschicktes Hantieren mit Indizes
23 Lineare Optimierung – ideale Ausnutzung von Kapazitäten

Arens et al. Fragen zum Teil 3

Inhaltliche Fragen zum Kapitel können Sie hier stellen. Der Verlag und die Autoren bemühen sich um eine zeitnahe Antwort. Wir bitten um Verständnis, dass nur konzeptionelle Fragen beantwortet werden können, wir aber keine Übungsaufgaben etc. rechnen. Die Antwort wird bei den FAQs eingestellt

FAQs

Die Zusatzmaterialien zu den Kapiteln (Bonusmaterialien und Lösungen zu den Aufgaben) finden Sie in der rechten Spalte.

(Pfad von Beginn: www.matheweb.de, dann das entsprechende Werk auswählen, dann in der linken Spalte große Überschrift "Zusatzprodukte", darunter "Zusatzmaterialien zu den einzelnen Kapiteln". Klicken Sie dort bitte den Teil des Buches an, zu dem Sie Zusatzmaterialien suchen, dann finden Sie im nächsten Fenster in der rechten Spalte das Zusatzmaterial.)

zu Kap.22 Unterschied Tensoren - Matrizen 

Frage: Ich verstehe, dass Tensoren Matrizen verallgemeinern, weil man Tensoren mit mehr als 2 Indizes schreiben kann, aber Matrizen immer nur zwei Indizes haben. Aber was ist denn der Unterschied zwischen Tensoren 2. Stufe und Matrizen. Ein Trägheitstensor ist doch eine Matrix, oder? Können Sie mir bitte helfen?

Antwort: Eine Matrix ist zunächst „nur“ ein rechteckiges Schema. Ein Tensor 2. Stufe kann nach Festlegung einer Basis als Matrix dargestellt werden, entscheidend ist aber, dass sich die Komponenten des Tensors (also die Matrixeinträge bei Darstellung als Matrix) bei einem Koordinatenwechsel nach gewissen Regeln transformieren (sehen Sie die Merkbox S.737). Dies führt dazu, dass der Tensor für ein koordinatenunabhängiges (geometrisches oder physikalisches) Objekt steht. Der Trägheitstensor für eine Massenanordnung ist ein invariantes Objekt, unabhängig von der gewählten Koordinatenbasis, aber die Tensorkomponenten hängen von der Basis ab. Oder nochmals anders formuliert: Jeder Tensor 2. Stufe kann (nach Festlegung einer Basis) als quadratische Matrix dargestellt werden, aber nicht jede quadratische Matrix enthält die Komponenten eines Tensors.

zu Kapitel 14.2 Seite 473 oben rechts  

Frage: Die Zeilenumformungen in Kapitel 14.2 Seite 473 oben rechts sind nicht nachvollziehbar. Auch nicht unter Berücksichtigung des schon bekannten Fehlers, dass es (1-2a) heißen muss.

Antwort: Wenn man die drei Zeilen der erweiterten Koeffizientenmatrix mit I, II, III durchnummeriert, sind die Umformungen wie folgt:
a) von der ersten Matrix zur zweiten: (II) -> (II) - 2-mal (I)
b) von der zweiten Matrix zu dritten: (I) -> (I) - a-mal (III) und (II) -> (II) - (1-2a)-mal (III)
c) von der dritten Matrix zur vierten: (II) und (III) tauschen

zu Kap. 14, Seite 474  

Frage: Die EZU im letzten Schritt sind nicht nachvollziehbar.

Antwort: Beim letzten Schritt wurde von der dritten Zeile das (a-2)-Fache der zweiten Zeile abgezogen.

zu Kap.23, Zusatzmaterial 23.1 Zweiphasenmethode S.1 

Frage : Wenn ich nun aber eine Funktion minimieren möchte, deren Vorfaktoren alle positiv sind, erhalte ich eine zu maximierende Funktion mit ausschließlich negativen Vorfaktoren. Dann kann ich doch den Simplexalgorithmus gar nicht mehr ablaufen lassen, da ich mit diesem ja die Faktoren erst zu null bzw. negativ machen will!

Antwort: Diese Beobachtung ist korrekt. Aber das Verfahren ist an dieser Stelle auch beendet, da man in der optimalen Lösung, nämlich der Ecke 0 "angelangt" ist.

zu Kap.16, Umformungen von Matrizen  

Frage: Beim Untersuchen von Matrizen und deren Umformungen habe ich festgestellt, dass unter gewissen Voraussetzgn. Zeilen- und Spaltenumformungen simultan ausgeführt werden können (insb. bei Determinantenumformungen). In welchen Fällen und mit welcher Begründung sind diese simultanen Umformungen - ohne die Matrix dabei zu transponieren - erlaubt?

Antwort: Bei der Berechnung von Determinanten darf man "abwechselnd" folgende Umformungen durchführen:
(i) Addiere zu einer Spalte das Vielfache einer anderen Spalte
(ii) Addiere zu einer Zeile das Vielfache einer anderen Zeile
Die Begründungen sind: (i) bedeutet nichts anderes, als die Matrix mit einer sogenannten Elementarmatrix, deren Determinante 1 ist, von rechts zu multiplizieren. Wegen des Determinantenmultiplikationssatzes ist die Determinante des Produktes dann wieder die Determinante der ursprünglichen Matrix.
(ii) analog mit einer Elementarmatrix von links.
Man beachte aber, dass etwa Zeilen- oder Spaltenvertauschungen das Vorzeichen der Determinante ändern. Beliebige Zeilen- oder Spaltenumformungen sind also nicht zulässig.

zu Kap. 22, Seite 734 Beispiel rechts unten  

Frage: Ich verstehe nicht warum im Beispiel rechts unten laut den Zwischenergebnissen im Buch über die Spalten summiert wird, wobei laut Ihren Konventionen und der Definition von Kovariant auf der selben Seite im vorliegenden Falle einer Linearform doch über die Spalten summiert werden sollte? Das Endergebnis ist das Gleiche, jedoch verwirren mich die Zwischenergebnisse.

Antwort: Vielen Dank für die berechtigte Anfrage. Die Zwischenergebnisse auf Seite 734, rechte Spalte unten, Zeilen -6 bis -4 sind falsch und die Ergebnisse nur zufällig richtig. Die Zwischenergebnisse müssten richtigerweise von oben nach unten lauten:
1, dann -1 + 1 = 0 und schließlich 1 - 1 + 1 = 1.
In Matrizenschreibweise müsste der Zeilenvektor (u_1, u_2, u_3) rechts mit der 4 Zeilen darüber stehenden Matrix _B Z _{\overline B} = (underline a1i_j) multipliziert werden. Die Korrektur ist in die Errata-Liste aufgenommen.

zu Kapitel 17.6 - Die beiden Methoden zur Bestimmung von Darstellungsmatrizen  

Thema: Ich verstehte nicht ganz, warum das Ergebnis im Beispiel nur dann die Differenziation liefert, wenn ich

Antwort: Es ist nicht so, dass das Ergebnis im Beispiel nur dann die Differenziation liefert, wenn ich die Matrix von rechts an den Vektor zur Basis B in Zeilenschreibweise multipliziere". Der Vektor (1,0,0,0)^T steht für das Polynom p_1. Es ist aber nicht
(1,0,0,0) (B)M(B) = (0,0,0,0)
der Vektor, der für die Ableitung von p_1 steht. Vielmehr ist richtig:
(B)M(B) (1,0,0,0)^T = (0,1,1,0)^T ,
und dieser Vektor steht für p_2 + p_3 = d/dX (p_1) - so wie es sein soll.
Die Darstellungsmatrizen sind nicht zu transponieren!

zu Kap.18: Linearfaktoren des charakteristischen Polynoms einer Matrix  

Frage: Im Kapitel 18 ist bei verschiedenen Sätzen und Bemerkungen die Rede von "wenn das charakteristische Polynom in Linearfaktoren zerfällt...".

Antwort: Es hängt vom Grundkörper ab (über dem die Vektorräume und Matrixen betrachtet werden). Auf S.586, zu Beginn des Kapitels, steht, dass der Körper entweder der Körper der reellen oder der komplexen Zahlen ist. Wenn der Körper der der komplexen Zahlen ist, zerfällt nach dem Hauptsatz der Algebra jedes Polynom in Linearfaktoren. Dies gilt aber nicht, wenn der Körper die reellen Zahlen sind, wie z.B. das Polynom x^2+1 zeigt. Man kann daher manche Matrizen (z.B. allg. Drehmatrixen) im Reellen nicht diagonalisieren, im Komplexen hingegen schon. Diese Unterscheidung ist für die Theorie und auch für manche Anwendungen durchaus relevant.

zu Kap.16, Vorgehen bei Aufgabe 16.18b) unverständlich  

Frage: Mir ist der ganze Ansatz vollkommen klar und auch die Lösung konnte ich mittels R validieren. Nur kann ich beim besten Willen nicht erkennen, wie man durch das Gaußsche Eliminationsverfahren auf die Lösung kommt. Dadurch, dass man ja Zeilen nur miteinander addiert oder multipliziert, können doch in der Lösungsspalte immer nur 0er stehen, da man dort ja mit 0 beginnt. Wo mache ich den Denkfehler? Könnten Sie mir vielleicht auf die Sprünge helfen?

Antwort: Sie haben richtig erkannt, dass auf der rechten Seite stets 0 verbleibt, da es sich um ein homogenes LGS handelt. Dies ist aber kein Problem für die Anwendung des Gauß'schen Algorithmus. Wenn Sie z.B. von der letzten Zeile das Doppelte der Zeile davor abziehen, erhalten Sie die Zeile (0 1.1 -1 | 0). Sie wählen dann z.B. x_3 = \lambda und erhalten x_2 = \lambda/1.1 = 10 \lambda / 11. Falls Sie x_2 = \lambda wählen würden, erhalten Sie dieselbe Lösungsmenge, nur anders parametrisiert. Sehen Sie auch das Beispiel 473 im Buch.

zu Kap.23, Bonusmaterial, ganzzahlige Optimierung  

Frage: Auf S. 757 (Ausgabe 2008) wird erwähnt, dass die ganzzahlige Optimierung im Bonusmaterial angesprochen wird. Leider habe ich im gedruckten Bonusmaterial dazu nichts gefunden. Wo muss ich suchen?

Antwort: Bedauerlicherweise ist die entsprechende Vertiefungsbox im Bonusmaterial nicht enthalten und wird nun hier zur Verfügung gestellt.

zu Kap.18, Lösung zu Aufg. 18.8. c)  

Frage: Wo finde ich die Lösung zu Rechenaufgabe 18.8 c) ? Habe Sie weder im Arbeitsbuch noch online gefunden. Danke im Voraus.

Antwort: Sie haben recht, die Lösung fehlt. Wir werden die Lösung so bald wie möglich hier bzw. in der Errata-Liste nachliefern. Wir bitten die Unannehmlichkeiten zu entschuldigen.

zu Kap.17.4, S.573: Darstellungsmatrizen von linearen Abbildungen 

Frage: Auf Seite 573, erstes Beispiel links unten: Darstellungsmatrix der Nullabbildung: Gehört bei der im Buch angegebenen 2x3-Nullmatrix nicht in der Angabe die Abbildung R3 auf R2? Bzw. umgekehrt, bei der in der Angabe gegebenen Abbildung R2 auf R3, gehört da nicht als Darstellungsmatrix eine 3x2-Nullmatrix (bezüglich der Nullabbildung)? Bin darauf gekommen durch das Anwenden der Matrixmultiplikation bei der Ausführung der Abbildung.
Vielen Dank im voraus und lg.
Antwort: Sie haben Recht. Hier liegt ein Druckfehler vor (sehen Sie bitte die Errata-Liste zum Erstdruck), der bei den Nachdrucken behoben ist.

zu Kap. 18.5, S.607 rechts  

Frage: Müsste der Vektor b2, da er ja zu einer ONB gehört, nicht b2 = 1/5 (0, 0, -4, 3) lauten? (Anstatt b2 = 1/sqrt(5) (0,0,-4,3) Übrigens: Das Buch ist wirklich toll. Es macht Spass, damit zu lernen.

Antwort: Sie haben recht. Hier liegt ein Druckfehler vor, der in dem zweiten korrigierten Nachdruck von 2010 behoben ist. Vielen Dank für Ihren Hinweis. Wir bitten den Fehler zu entschuldigen.

Zu Kap. 23, Bonusmaterial, S. 4, Absatz 4 

Frage: Warum verliert man durch das Weglassen einer künstlichen Variablen, die aus einer Größergleich Relation entstand, im Allgemeinen (!) eine aktive NB? Um auf das Bsp. von S. 3 Bezug zu nehmen: In meiner Initiallösung für das grosse System habe ich x7=150, x8=50 und eine aktive NB (x1-x6+x7=100). Kann es nicht sein, dass nach Zeilenumformungen die künstlichen Variablen x7 und x8 null sind, dass aber weiterhin nur eine der Variablen x4, x5, x6 null ist, und damit nur eine aktive NB besteht? Ich wäre sehr dankbar, wenn Sie mir helfen könnten! Ein paar mehr Worte wären hier mit Sicherheit hilfreich, wenn auch redundant, falls ich es in der einen Formulierung besser als in der anderen verstehe. Danke! Dankeschön auch für Ihr Buch, das mir ein treuer Wegbegleiter ist.

Antwort: Sie haben natürlich recht, dieser Fall kann eintreten - im Beispiel könnte man etwa die Lösung
x(1) = 100
x(2) = 0
x(3) = 50
x(4) = 2000
x(5) = 2100
x(6) = 0
x(7) = 0
x(8) = 0
für das Problem mit künstlichen Variablen und sekundärer Zielfunktion erhalten, hier sind x(4) und x(5) beide nicht gleich 0. Wie auf S. 4 erläutert wird, hat die durch Einführen der künstlichen Variablen entstandene Ecke aber mindestens so viele Nulleinträge wie es ursprüngliche Variablen und Größergleich-Relationen gibt (hier also 4 Einträge) und diese Eigenschaft bleibt auch nach Simplex-Umformungen erhalten (auch obige Lösung hat 4 Nulleinträge). Ein Teil davon fällt durch Streichen der künstlichen Variablen später wieder weg, ein Teil entfällt auf die Schlupfvariablen. Der Rest dieser Nulleinträge muss dann auf die ursprünglichen Variablen entfallen.
Und jetzt kommt das entscheidende Argument: Im ursprünglichen Problem tauchen auch die Ungleichungen x_i ›= 0 für alle ursprünglichen Variablen auf - ein Teil davon ist also aktiv, wenn Nulleinträge bei den ursprünglichen Variablen vorkommen (hier ist das x(2) = 0)! Zusammen mit den Nulleinträgen bei den Schlupfvariablen (die gehören ja zu aktiven Ungleichungen im Ursprungsproblem) haben wir damit wieder genau die richtige Anzahl von aktiven Nebenbedingungen. Im Beispiel haben wir eine Gleichheitsbedingung (die ist gewissermaßen immer aktiv), außerdem sind in der oben angegebenen Lösung eine Ungleichung (die mit der Schlupfvariable x(6)) und eine Vorzeichenbedingung (die zur Variable x(2)) aktiv - insgesamt 3 mit Gleichheit erfüllte Bedingungen, das genügt zur Festlegung einer Ecke.

Zu Kap. 14, Aufg. 14.8  

Frage: Welche Zeilenumformung führt bei Aufg. 14.8 in der 2. Zeile, 2. Spalte zu (a-3)²(a-2)?

Antwort: Die Umformung lautet "neue 2. Zeile = alte 2. Zeile minus (a-3) mal alte 1. Zeile".

Zu Kap. 14, Aufg. 14.8  

Frage: Vom 2. auf den 3. Schritt wird ja unter anderem die zweite Zeile durch (a-3) geteilt. Wieso darf ich das, ohne bereits hier explizit eine Fallunterscheidung durch zu führen, da ich ja für a=3 durch 0 teilen würde? Vielen Dank bereits jetzt für Ihre Antwort.

Antwort: Sie hätten ganz recht: Falls durch (a-3) geteilt wird, so muss der Fall a = 3 explizit betrachtet werden. Aber bei dem von Ihnen angesprochenen Schritt wird nicht durch (a-3) geteilt, es wird von der zweiten Zeile das (a-3)-fache der ersten Zeile subtrahiert. Und falls hier a=3 sein sollte, so macht das nichts, es wird dann nämlich die Null subtrahiert, also nichts verändert.

zu Kap.16, S.523 (2. Auflage), Rechenregeln für die Matrizenmultiplikation  

Frage: Ich sehe keinen Grund, warum die beiden Distributivgesetze nur für quadratische Matrizen gelten sollen. Vielmehr bin ich der Meinung, dass diese immer dann gelten, wenn die Matrizen A,B,C von der Zeilen- und Spaltenzahl her zusammenpassen, sodass die entsprechenden Summen und Produkte definiert sind. Handelt es sich hier also um eine unnötige Einschränkung des Gültigkeitsbereichs, oder sehe ich das falsch?

Antwort: Sie haben mir Ihrem Hinweis recht, die Einschränkung auf quadratische Matrizen ist nicht erforderlich. Die Formulierung wurde so gewählt, damit beide Distributivgesetze mit dem gleichen Satz an Matrizen formuliert werden können. Wir werden bei einer evtl. Neuauflage des Werks die folgende Bemerkung ergänzen: Die Distributivgesetze gelten auch allgemeiner: Die Zeilen- und Spaltenzahlen der einzelnen Matrizen müssen passen, so dass die Summen bzw. Produkte gebildet werden können.

Zu Kapitel 15, S. 490, 1. Auflage, Definition eines Vektorraums 

Frage: Wenn ich die Definition des Vektorraums richtig verstehe (was sehr unwahrscheinlich ist), kann man einen Skalar nur von links multiplizieren. Die Multiplikation eines einzelnen Skalars mit einem einzelnen Vektor ist also nicht assoziativ Also "Skalar multipliziert mit Vektor (lambda mal v)" ist ungleich "Vektor multipliziert mit Skalar (v mal lambda)"? Verstehe ich die Definition richtig?

Antwort: Richtig ist: Laut Definition können Skalare nur von links an Vektoren multipliziert werden (man spricht in der Mathematik genauer von einem Linksvektorraum). Wir führen das auch konsequent durch und schreiben immer links die Skalare und rechts die Vektoren auf. Eigentlich gibt es "Vektor mal lambda" gar nicht, dennoch kann man das zulassen, indem man Skalare an Vektoren vorbeischiebt, man setzt also v lambda = lambda v. Dann hat man eine Kommutativität (nicht Assoziativität wie in Ihrer Frage). Dieses Vorbeischieben ist zulässig, weil die Multiplikation im Grundkörper kommutativ ist, es gilt ab=ba für alle a, b aus R bzw. C. Das wäre bei nichtkommutativen Grundkörpern (wie wir sie in dem gesamten Buch nicht betrachten) nicht einfach so möglich.

Thema: Spannungstensor 

Frage: Ein Tensor (Spannungstensor) sei eine 3x3-Matrix. Bei Flüssigkeiten und Gasen ist der Spannungstensor proportional zur Einheitsmatrix, mit einer Proportionalitätskonstante p, was man dann als Skalar deuten kann (in Wirklichkeit ist es eine diagonale Matrix). Wie muss ich mir diese Zusammenhänge "als Skalar deuten" und "in Wirklichkeit ist es eine diagonale Matrix" mathematisch vorstellen?

Antwort: Wenn der Spannungstensor proportional zur Einheitsmatrix ist (also eine spezielle Diagonalmatrix), dann hat die Multiplikation mit dem Spannungstensor die gleiche Wirkung auf einen Vektor wie die Multiplikation mit einem Skalar. In diesem Sinn ist der Spannungstensor die Verallgemeinerung des Drucks (ein Druck wirkt gleich von allen Richtungen; beim Spannungstensor gibt es unterschiedliche Normalkräfte und zudem Scherkräfte).
 
Kontakt

Fragen oder Anregungen? Wir sind für Sie da

Contact Us